《Safety》:Agricultural Injury Severity Prediction Using Integrated Data-Driven Analysis: Global Versus Local Explainability Using SHAP
编辑推荐:
本综述系统阐述了利用集成机器学习(ML)模型(如XGBoost、LightGBM、随机森林RF)预测农业损伤严重度的创新框架。研究通过AgInjuryNews数据集(n=2451)验证了模型的高预测性能(准确度≈0.71,F1-score≈0.81),并创新性地结合SHapley Additive exPlanations(SHAP)方法实现全局与局部可解释性分析,揭示了安全装备(如ROPS、头盔)、受害者年龄等关键风险因素,为农业安全政策的精准制定提供了数据驱动的决策支持。
1. 引言
农业部门因其持续高发的工伤率而成为最具危险性的职业领域之一。在美国,农业工伤率高达23.5/10万工人(2022年数据)。然而,由于联邦监管豁免(如“小型农场豁免”),正式报告制度受限,导致国家数据集稀疏,阻碍了有效安全干预措施的制定。传统统计模型(如logit模型)虽具可解释性,但依赖于变量分布和线性关系的强假设,难以捕捉复杂非线性交互作用。随着机器学习(ML)的发展,集成学习技术如随机森林(RF)、极端梯度提升(XGBoost)等在损伤严重度预测中展现出卓越性能,但其“黑箱”特性限制了实际应用。可解释人工智能(XAI)尤其是SHAP(SHapley Additive exPlanations)方法的兴起,为平衡预测准确性与模型可解释性提供了解决方案。本研究旨在开发一个综合集成ML框架,利用AgInjuryNews的独特数据集,预测并解释农业损伤严重度,填补农业安全领域数据驱动研究的空白。
2. 材料与方法
2.1. 数据收集与预处理
本研究数据集来源于AgInjuryNews.com,这是一个覆盖2016年至2024年美国农业损伤事件的公开监测平台。数据通过自动关键词过滤和数字媒体监控收集,并由专家志愿者手动审查和编码为结构化格式。经过清理(排除缺失值和重复条目,并限定于美国境内事件)后,最终数据集包含2451条有效记录,其中 fatal(致命)事件1673例(68%),non-fatal(非致命)事件778例(32%)。损伤严重度作为二元目标变量(0表示致命,1表示非致命)。特征变量分为四类:时间属性(季节、星期、一天中的时间)、个人特征(性别、年龄、酒精摄入、安全装备使用如安全带、头盔、ROPS)、事件属性(损伤因子类型、受害者人数、角色、意图)以及外部因素(密闭空间、谷物卷入、农业旅游等)。特别注意了“谷物卷入”这一独特的高风险因素。
2.2. 机器学习模型
研究评估了六种集成ML模型:
- •
梯度提升(Gradient Boosting, GB):通过迭代训练决策树,聚焦难以学习的样本点,最小化正则化目标函数。
- •
极端梯度提升(eXtreme Gradient Boosting, XGB):结合一阶和二阶导数,引入L1/L2正则化,支持并行计算,高效且抗过拟合。
- •
轻量梯度提升机(Light Gradient Boosting Machine, LightGBM):采用基于梯度的单边采样(GOSS)和互斥特征捆绑(EFB),以及直方图算法,提升大数据集处理效率。
- •
自适应提升(Adaptive Boosting, AdaBoost):迭代调整样本权重,组合多个弱分类器,对噪声相对敏感但能有效降低偏差。
- •
基于直方图的梯度提升回归树(Histogram-based Gradient Boosting Regression Trees, HistGBRT):通过特征值离散化为直方图,加速训练并减少内存消耗。
- •
随机森林(Random Forest, RF):通过构建多棵去相关决策树并聚合结果(投票或平均),具有高鲁棒性和抗过拟合能力。
2.3. 模型开发与评估
采用五折交叉验证对模型进行训练和测试。使用混淆矩阵衍生出的性能指标进行评估:准确度(Accuracy)、精确度(Precision)、召回率(Recall)和F1-score。同时绘制受试者工作特征(ROC)曲线并计算曲线下面积(AUC)以评估模型区分能力。
2.4. 可解释性分析与SHAP
为解决ML模型的黑箱问题,本研究应用SHAP进行全局和局部可解释性分析。SHAP基于博弈论中的Shapley值,为每个特征对单个预测结果的贡献分配一个数值。全局分析通过平均绝对SHAP值确定特征重要性排名;局部分析则通过力导向图(force plots)等方式解释单个预测,揭示特定特征在具体情境下的影响。
3. 结果与讨论
3.1. 模型性能比较
所有集成模型均表现出强大的预测性能。混淆矩阵显示,模型对 majority class(致命事件)的预测准确率(约94%)高于 minority class(非致命事件,约20%),这反映了数据集的类别不平衡性。定量指标表明,大多数模型准确度约为0.71,F1-score约为0.81,体现了良好的平衡性。RF和XGB在召回率(0.94和0.93)方面表现突出,表明其能有效识别致命事件。LightGBM总体准确度(0.68)和F1-score(0.78)稍低。ROC曲线显示所有模型的AUC值均显著高于0.5(随机猜测),约在0.69左右,证实了模型良好的区分能力。
3.2. 全局SHAP分析
全局SHAP分析揭示了影响损伤严重度的关键因素。最重要的特征包括:翻车保护结构(ROPS)的存在、头盔使用、受害者年龄以及损伤因子类型。例如,SHAP摘要图清晰显示,高龄(红色点)倾向于增加致命风险,而佩戴头盔(红色点)则显著降低致命可能性。这些发现与农业安全领域的现有知识一致,为制定针对性干预措施(如推广安全装备)提供了实证依据。
3.3. 局部SHAP分析
局部SHAP分析提供了案例层面的深入见解。力导向图展示了不同特征对单个预测结果的贡献方向和大小。分析发现,某些特征(如州、地点类型、受害者角色)的影响具有高度情境依赖性。例如,在某个案例中,“州”可能是推动预测结果为致命的主要因素,而在另一案例中其影响可能微乎其微。这表明相同特征在不同事件背景下可能产生截然不同的影响,凸显了集成模型捕捉复杂交互作用的能力。这种局部可解释性对于一线响应人员、安全专家和政策制定者极具价值,有助于他们理解特定事件的成因,并设计情境感知的精准干预策略。
3.4. 讨论与局限性
本研究结果与交通损伤等领域的研究相呼应,进一步证实了集成ML模型在损伤严重度预测中的优越性。SHAP的应用成功地将黑箱模型转化为可解释的工具。同时,研究也承认了所用数据的局限性:AgInjuryNews数据可能存在选择性偏差(媒体更倾向于报道严重或特殊事件),且数据源于新闻报道而非工程分析,可能引入主观性。因此,结果反映的是农业损伤中最为严重和可见的部分。
4. 结论
本研究成功开发并验证了一个结合集成机器学习和SHAP可解释性分析的综合框架,用于预测和解释农业损伤严重度。利用AgInjuryNews的独特数据集,有效应对了农业领域官方数据稀疏的挑战。模型表现出色且稳健。全局和局部SHAP分析不仅识别了关键风险因素(如ROPS、头盔、年龄),还揭示了这些因素影响的情境差异性。该研究架起了预测准确性与实际可解释性之间的桥梁,为农业安全政策制定、针对性干预措施开发以及最终降低农业损伤的人力与经济负担提供了强有力的数据驱动工具。未来工作可探索更先进的技术处理类别不平衡问题,并进一步优化对不常见损伤结果的预测。