可解释与可解释机器学习在预测性流程监控中的方法:系统性文献综述与未来展望
《ARTIFICIAL INTELLIGENCE REVIEW》:Interpretable and explainable machine learning methods for predictive process monitoring: a systematic literature review
【字体:
大
中
小
】
时间:2025年10月16日
来源:ARTIFICIAL INTELLIGENCE REVIEW 13.9
编辑推荐:
本文针对预测性流程监控(PPM)中机器学习模型透明度不足的问题,对107篇文献进行了系统性综述,梳理了可解释AI(Interpretable AI)与可解释AI(Explainable AI)方法的应用现状,提出了融合可信AI、大语言模型(LLM)和流事件处理等前沿方向的未来研究框架,为构建透明、可靠的业务流程决策支持系统提供了重要参考。
在当今数据驱动的商业环境中,预测性流程监控(Predictive Process Monitoring, PPM)已成为企业优化运营、降低风险的关键技术。通过分析历史事件日志,PPM能够预测业务流程的未来状态,如下一活动、剩余时间或最终结果。然而,随着机器学习(ML)模型日益复杂,尤其是深度学习等"黑盒"模型的广泛应用,一个严峻挑战浮现出来:这些模型虽然预测精度高,但其决策过程如同"黑箱",缺乏透明度,使得业务人员难以理解和信任预测结果,更无法洞察影响流程绩效的关键因素。
这种"黑箱"问题在医疗、金融等高风险领域尤为突出。当AI系统预测某笔贷款存在风险或某位患者可能出现并发症时,决策者需要知道"为什么"——哪些因素导致了这样的预测?模型是否依赖了正确的特征?是否存在潜在的偏见?缺乏解释能力不仅限制了PPM的广泛应用,还可能带来合规风险和道德隐患。
为此,研究人员对截至2025年的文献进行了系统性梳理,旨在回答几个核心问题:目前有哪些可解释和可解释的ML方法应用于PPM?这些方法如何分类和评估?不同应用场景下哪种方法更有效?当前研究存在哪些空白?未来发展方向何在?这项研究不仅总结了现有技术路线图,更为构建真正可信、透明的业务流程智能系统指明了方向。
研究人员采用系统性文献综述(Systematic Literature Review, SLR)方法,严格按照PRISMA指南进行文献筛选与分析。从Scopus、Web of Science等权威数据库中检索得到107篇相关研究,时间跨度为2009年至2025年。研究团队构建了详细的分析框架,从应用任务(如下一事件预测、流程结果预测)、应用领域(如医疗、金融)、数据集类型、ML方法类型(白盒模型 vs 黑盒模型)、解释方法特性(范围、关系、格式)以及评估方法等多个维度对文献进行编码与分析。
研究发现,PPM中的可解释性方法主要分为两大流派。一类是内在可解释的"白盒"模型,如决策树(Decision Tree)、线性/逻辑回归(Linear/Logistic Regression)和贝叶斯网络(Bayesian Network),它们结构透明,决策过程可直接理解。另一类是针对复杂黑盒模型的事后解释(Post-hoc Explanation)技术,如LIME(Local Interpretable Model-agnostic Explanations)、SHAP(SHapley Additive exPlanations)和反事实解释(Counterfactual Explanation),它们通过构建代理模型或特征归因等方式"解释"黑盒模型的决策。
在应用方面,研究显示可解释PPM已广泛应用于客户服务、金融、医疗等多个领域。其中,BPI Challenge系列数据集成为最常用的基准数据,特别是BPI 2012事件日志被26项研究采用。预测任务主要集中在流程结果分类(65项研究)和下一事件预测(30项研究),时间相关预测(如剩余时间预测)也有23项研究涉及。
技术方法上,研究团队识别出几种主流方法:局部可解释性方法关注单个预测实例的解释,如LIME为每个预测生成局部线性解释;SHAP基于博弈论计算每个特征对预测的贡献度;反事实解释则展示如何改变输入才能改变预测结果。全局可解释性方法揭示整个模型的行为模式,如部分依赖图(Partial Dependence Plot, PDP)显示特征与预测间的平均关系。
主要技术方法概述
研究团队通过系统性文献分析,识别出预测性流程监控中解释性方法的主要技术路线。基于树结构的可解释模型如决策树(Decision Tree)和随机森林(Random Forest)被广泛应用于流程结果预测,通过对事件日志特征进行分裂规则生成可理解的决策路径。针对深度学习等黑盒模型,SHAP和LIME成为最常用的模型无关解释方法,通过特征归因和局部近似提供预测依据。反事实解释技术通过生成最小修改方案展示改变预测结果所需的条件变化。评估方面,功能性评估通过保真度(Fidelity)和稳定性(Stability)等指标量化解释质量,而人工评估则关注解释的实际可用性。
应用任务与方法分布
研究发现可解释PPM研究主要集中于三类预测任务。流程结果预测是最常见的应用场景,占比60%(65/107),主要使用BPI系列数据集进行违约风险、医疗结果等分类预测。下一事件预测关注活动序列预测,占比28%(30/107),常用LSTM等序列模型结合注意力机制提供解释。时间相关预测如剩余时间估计占比21%(23/107),多采用回归模型配合特征重要性分析。方法选择上,深度学习模型占比35%(38/107),传统机器学习占比33%(35/107),体现了解释性与准确性的平衡需求。
解释方法的技术特性
从解释范围看,局部解释方法占比62%(66/107),侧重单个案例的决策依据说明;全局解释方法占比38%(41/107),揭示模型整体决策逻辑。解释关系上,模型特定方法占比45%(48/107)依赖具体模型结构,而模型无关方法占比55%(59/107)适用多种模型。输出格式分析显示,可视化解释占比51%(55/107)最受青睐,数值型占比32%(34/107),规则型占比17%(18/107),反映了解释直观性的需求。
评估方法的现状与挑战
文献分析显示,仅16.8%(18/107)的研究进行了系统性的解释质量评估,其中功能性评估占比66.7%(12/18),主要考察保真度(Fidelity)和稳定性(Stability);人工评估占比33.3%(6/18),关注解释的实用价值。评估深度不足体现在仅2项研究同时使用定量定性方法,且缺乏跨领域评估框架。现有评估多局限于BPI数据集,缺乏真实业务场景验证,这成为方法实用化的主要障碍。
未来研究方向与挑战
研究识别出四大前沿方向:可信AI融合将可解释性与不确定性量化(Uncertainty Quantification)、隐私保护相结合;大语言模型(LLM)赋能通过自然语言交互提升解释可用性;流式处理支持面向实时事件流的低延迟解释生成;对象中心流程挖掘(Object-Centric Process Mining)应对多对象关联的解释挑战。当前主要瓶颈包括评估标准缺失、领域适应性不足、计算效率低下等,需构建统一的评估框架和跨领域基准测试平台。
研究结论与意义
这项系统性综述表明,可解释PPM正从"有无解释"向"解释质量"转变。理想的可解释系统应兼顾准确性与可理解性,提供个性化、交互式、多模态的解释体验。未来研究需强化实证评估,开发领域特定的解释规范,建立包括技术指标、用户体验、业务价值在内的多维评估体系。随着欧盟AI法案等法规实施,可解释性将成为PPM系统的必备特性,推动业务流程管理向可信、透明、负责任的方向发展。
这项研究的意义在于为研究者、从业者和决策者提供了全面技术路线图,既总结了现有方法的优势与局限,又指明了未来创新方向。通过将可解释AI与流程挖掘深度融合,有望构建真正智能、可信的业务流程管理系统,使AI不仅是预测工具,更是人类决策的可靠伙伴。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号