
-
生物通官微
陪你抓住生命科技
跳动的脉搏
MARIA:基于掩码自注意力机制的多模态医疗数据缺失稳健性Transformer模型
【字体: 大 中 小 】 时间:2025年08月11日 来源:Computers in Biology and Medicine 6.3
编辑推荐:
针对医疗多模态数据缺失严重影响模型性能的难题,意大利罗马生物医学大学团队开发了MARIA模型。该研究创新性地采用中间融合策略和掩码自注意力机制,无需数据插补即可处理不完整特征和缺失模态。在8项诊疗任务测试中,MARIA性能显著优于10种前沿模型,为临床决策支持系统提供了更可靠的AI解决方案。
在医疗人工智能领域,数据缺失犹如挥之不去的"幽灵"——患者可能因转院中断检查,隐私限制导致关键指标缺失,甚至传感器故障造成数据断层。传统方法要么粗暴删除不完整样本,要么依赖数据插补引入偏差,这些问题严重制约着AI辅助诊断的可靠性。面对这一困局,意大利罗马生物医学大学(Università Campus Bio-Medico di Roma)的Camillo Maria Caruso团队在《Computers in Biology and Medicine》发表突破性研究,开发出名为MARIA(Multimodal Attention Resilient to Incomplete datA)的新型Transformer架构。
研究团队采用了两大核心技术:首先是基于NAIM模块的模态特异性编码器,通过改进的掩码多头注意力机制(MSA)动态忽略缺失特征;其次是中间融合策略,将各模态的潜在表征ri经共享编码器Esh整合。训练中创新性地采用模态随机丢弃(Modality dropout)和特征随机掩码(Feature dropout)双重正则化策略。实验数据来自ADNI阿尔茨海默病数据库和AIforCOVID新冠肺炎数据集,涵盖8项诊疗任务。
模型架构方面,MARIA通过查询矩阵Qi、键矩阵Ki和值矩阵Vi的线性变换,配合掩码矩阵Mi实现特征级缺失处理。共享编码器则通过rsh的拼接实现模态间信息融合,其掩码矩阵Msh可处理全模态缺失情况。数学表达上,注意力权重计算采用softmax[(QiKiT)/√dh + Mi]结构,其中dh=de/h控制维度。
实验结果令人振奋:在"模态缺失"场景下,MARIA在69.4%的测试条件下显著优于对照组;即便在更严苛的"全缺失"设置中,仍有37.5%的AUC指标领先。特别值得注意的是,当训练集缺失率达75%时,MARIA在ADNI二元分类任务中AUC保持0.87以上,较传统ML方法平均提升12.3%。统计检验显示,MARIA在40%对比实验中显著胜出(p<0.05),而性能显著落后的情况仅占2%。
这项研究的突破性体现在三个方面:其一,首次将掩码自注意力机制系统应用于多模态医疗数据缺失问题;其二,提出的中间融合策略在保持各模态特异性的同时实现有效信息互补;其三,双重随机掩码训练策略大幅提升模型对现实场景的适应能力。这些创新为电子病历分析、远程监护等数据不完整场景提供了新的技术路径。
值得关注的是,研究也揭示了重要发现:在纯表格数据场景下,早期融合策略的表现接近中间融合,这提示未来研究需根据数据类型选择融合策略。团队已公开源代码促进学术交流,下一步计划扩展模型对医学影像和文本数据的处理能力,并探索MNAR(非随机缺失)等更复杂的缺失机制应对方案。这项研究不仅为医疗AI的可靠性树立了新标杆,其技术框架对金融风控、工业检测等存在数据缺失的领域也具有重要参考价值。
生物通微信公众号
知名企业招聘