区域与概念协同的可解释人工智能框架:缺陷分割模型的可解释性与主动学习新策略

【字体: 时间:2025年05月20日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  针对缺陷分割模型可解释性单一且难以指导主动学习的问题,研究人员提出区域与概念协同的RC-XAI框架,通过联合区域级("where")与概念级("what")解释器提供全面解释,并开发ED-RSS模块驱动主动学习。实验证明该方法在三个数据集上显著提升解释可靠性和模型性能,为工业质检提供可信AI新方案。

  

在人工智能(AI)席卷工业质检领域的今天,深度学习模型虽能精准勾勒缺陷边界,却因"黑箱"特性让使用者如雾里看花。更令人担忧的是,这些模型可能因微小扰动就"谎报军情",导致工厂无故停产——据研究统计,这类误判每年造成数百万美元损失。当前可解释人工智能(XAI)方法如同盲人摸象:有的只能指出缺陷位置(区域级解释),有的仅能描述特征概念(概念级解释),这种"偏科"解释让质检人员难以全面信任AI决策。与此同时,缺陷数据稀缺的现实又要求模型能像人类学徒般"主动学习",但传统方法却未将解释机制转化为学习指南。

针对这一双重困境,华南理工大学等机构的研究团队在《Engineering Applications of Artificial Intelligence》发表研究,提出革命性的RC-XAI框架。该工作创新性地将区域级与概念级解释器"双剑合璧",并首创解释驱动式样本选择(ED-RSS)机制,使AI不仅能"说清道理"还能"自主学习"。研究人员采用NEU-seg等三个工业数据集验证,通过梯度加权类激活映射(Grad-CAM)实现区域解释,利用概念激活向量(TCAV)量化概念贡献,构建起多维度解释体系。ED-RSS模块则通过计算解释不确定性指数,智能筛选最具信息量的样本进行主动学习。

研究结果显示:在区域解释方面,RC-XAI比传统方法在热轧钢带缺陷定位中IoU指标提升12.7%,有效避免局部偏置;概念解释模块则首次量化了"裂纹形态"等抽象概念对决策的影响权重(p<0.01)。更引人注目的是,融合解释的主动学习使模型在仅使用60%标注数据时,就达到传统方法100%数据的性能,极大降低标注成本。在医疗影像的拓展实验中,该框架同样展现出对肺结节分割的泛化能力。

这项研究的突破性在于:首次建立了解释与学习的闭环系统,使XAI从"事后解读"升级为"过程优化"工具。其提出的双维度解释体系不仅让工业质检"看得见、信得过",ED-RSS模块更开创了"越解释越聪明"的新范式。正如研究者所言:"这如同给AI装上解释与进化的双引擎"。该成果对高风险的工业检测和医疗诊断领域具有重要应用价值,为可信AI的发展提供了可复用的技术框架。未来,这种解释-学习协同机制有望拓展至更多需要高可信度的决策场景。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号