
-
生物通官微
陪你抓住生命科技
跳动的脉搏
区域与概念协同的可解释人工智能框架:缺陷分割模型的可解释性与主动学习新策略
【字体: 大 中 小 】 时间:2025年05月20日 来源:Engineering Applications of Artificial Intelligence 7.5
编辑推荐:
针对缺陷分割模型可解释性单一且难以指导主动学习的问题,研究人员提出区域与概念协同的RC-XAI框架,通过联合区域级("where")与概念级("what")解释器提供全面解释,并开发ED-RSS模块驱动主动学习。实验证明该方法在三个数据集上显著提升解释可靠性和模型性能,为工业质检提供可信AI新方案。
在人工智能(AI)席卷工业质检领域的今天,深度学习模型虽能精准勾勒缺陷边界,却因"黑箱"特性让使用者如雾里看花。更令人担忧的是,这些模型可能因微小扰动就"谎报军情",导致工厂无故停产——据研究统计,这类误判每年造成数百万美元损失。当前可解释人工智能(XAI)方法如同盲人摸象:有的只能指出缺陷位置(区域级解释),有的仅能描述特征概念(概念级解释),这种"偏科"解释让质检人员难以全面信任AI决策。与此同时,缺陷数据稀缺的现实又要求模型能像人类学徒般"主动学习",但传统方法却未将解释机制转化为学习指南。
针对这一双重困境,华南理工大学等机构的研究团队在《Engineering Applications of Artificial Intelligence》发表研究,提出革命性的RC-XAI框架。该工作创新性地将区域级与概念级解释器"双剑合璧",并首创解释驱动式样本选择(ED-RSS)机制,使AI不仅能"说清道理"还能"自主学习"。研究人员采用NEU-seg等三个工业数据集验证,通过梯度加权类激活映射(Grad-CAM)实现区域解释,利用概念激活向量(TCAV)量化概念贡献,构建起多维度解释体系。ED-RSS模块则通过计算解释不确定性指数,智能筛选最具信息量的样本进行主动学习。
研究结果显示:在区域解释方面,RC-XAI比传统方法在热轧钢带缺陷定位中IoU指标提升12.7%,有效避免局部偏置;概念解释模块则首次量化了"裂纹形态"等抽象概念对决策的影响权重(p<0.01)。更引人注目的是,融合解释的主动学习使模型在仅使用60%标注数据时,就达到传统方法100%数据的性能,极大降低标注成本。在医疗影像的拓展实验中,该框架同样展现出对肺结节分割的泛化能力。
这项研究的突破性在于:首次建立了解释与学习的闭环系统,使XAI从"事后解读"升级为"过程优化"工具。其提出的双维度解释体系不仅让工业质检"看得见、信得过",ED-RSS模块更开创了"越解释越聪明"的新范式。正如研究者所言:"这如同给AI装上解释与进化的双引擎"。该成果对高风险的工业检测和医疗诊断领域具有重要应用价值,为可信AI的发展提供了可复用的技术框架。未来,这种解释-学习协同机制有望拓展至更多需要高可信度的决策场景。
生物通微信公众号
知名企业招聘