综述:生成和利用材料与制造研究中AI/ML模型的解释

【字体: 时间:2025年08月12日 来源:Patterns 7.4

编辑推荐:

  这篇综述系统阐述了可解释人工智能(XAI)在材料科学与制造研究中的应用价值,重点探讨了如何通过SHAP、LIME等方法解析机器学习(ML)模型的"黑箱"决策过程。文章通过合金相分类、半导体制造等案例,展示了XAI在提升模型可信度(trustworthiness)、揭示物理机制(causality)及优化工艺流程中的关键作用,为小样本数据场景下的ML应用提供了方法论指导。

  

研究背景

在材料与制造领域,机器学习(ML)模型常面临小样本数据、高成本实验和复杂设计空间的挑战。传统"黑箱"模型如深度卷积神经网络(CNN)缺乏透明度,可能引发安全隐患或决策偏差。可解释人工智能(XAI)通过提供人类可理解的模型解释,成为连接数据驱动预测与物理机制认知的桥梁。

当前方法与应用

模型无关解释技术

SHAP(Shapley Additive Explanations)和LIME(Locally Interpretable Model-agnostic Explanations)是两种核心方法。以多元主元合金(MPEA)数据集为例,SHAP通过计算特征贡献值的排列组合平均值,揭示钛(Ti)原子分数与维氏硬度的非线性关系(图1C)。而LIME通过局部扰动构建可解释的替代模型,但可能生成物理不可行的虚拟数据。

半导体制造案例中(图2),SHAP量化了工艺参数对晶体管良率的影响,指导产线优化实现21.7%的良率提升。这种特征归因方法克服了传统优化中非线性关联参数的解析难题。

深度学习特异性方法

针对CNN的显著性映射技术如梯度加权类激活图(Grad-CAM)和分层相关性传播(LRP),在复合材料缺陷检测中表现突出。碳纤维增强塑料(CFRP)铺层缺陷分类实验显示(图5),平滑积分梯度(Smooth IG)能准确定位褶皱和异物缺陷区域,而DeepSHAP虽噪声较大但对微小扰动最敏感。

可解释模型设计

自解释神经网络(SENN)通过概念编码器将数据转换为可解释特征基,弹性网络(ElasticNet)则通过正则化实现稀疏应力场建模。这类内生可解释模型虽预测性能稍逊,但能规避对抗攻击风险,适用于高可靠性场景。

技术挑战与发展

XAI方法存在计算成本高、特征共线性干扰等局限。研究表明,SHAP依赖与局部条件期望(ICE)曲线矛盾时(图1B vs 1E),需结合聚类分析探究数据子集特性。显著性映射方法如导向反向传播(Guided BackProp)易受模型参数随机化的干扰,可能退化为边缘检测器。

未来展望

在航空航天复合材料、宽禁带半导体等高风险领域,XAI将助力实现:

  1. 硅基工艺知识向碳化硅(SiC)等新材料的迁移学习(transfer learning)

  2. 3D打印流变特性的原位监测(图4)通过LRP热图识别打印机特异性伪影

  3. 基于概念激活向量(CAV)的微观结构语义解析

    随着欧盟《人工智能法案》等法规实施,XAI将成为智能制造合规化的重要技术支撑。

(注:全文严格基于原文内容缩编,所有案例、数据及方法论均引自原文献,未新增观点或案例)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号