基于跨注意力融合与协同边缘计算的多模态皮肤病变分类方法研究

【字体: 时间:2025年06月22日 来源:Computerized Medical Imaging and Graphics 5.4

编辑推荐:

  针对皮肤癌诊断中单模态数据准确性不足、云端部署延迟高及医疗隐私风险等问题,研究人员提出融合皮肤镜图像与患者元数据的多模态深度学习模型,创新性采用跨注意力特征融合机制(CAM)和IoT-边缘协同推理方案。实验显示在HAM10000数据集上分类准确率达95.73%,延迟降低20-47%,为计算机辅助诊断(CAD)系统提供了兼具高精度与隐私保护的解决方案。

  

皮肤癌是全球重大健康威胁,早期精准诊断对改善患者预后至关重要。尽管基于深度学习的计算机辅助诊断(CAD)系统已展现出潜力,但现有方法面临三重困境:依赖单模态皮肤镜图像导致诊断准确率受限(如HAM10000数据集上普遍低于90%)、云端部署造成网络延迟(平均响应时间>500ms)、医疗数据传输引发隐私合规风险(违反HIPAA法案)。更棘手的是,多模态融合中简单的特征拼接会损失模态间关联信息,而传统云-端架构难以平衡计算效率与数据安全。

越南胡志明市国家大学信息科技大学的研究团队在《Computerized Medical Imaging and Graphics》发表研究,创新性地将跨注意力融合机制与边缘计算架构结合。通过构建包含模态特征提取、交叉注意力融合(CAM)和分类器的三模块模型,配合动态任务分割算法,实现了皮肤镜图像与患者元数据(年龄、病灶部位等)的智能融合。实验表明该方法在ISIC2019等数据集上F1-score提升12.8%,推理延迟降低至187ms,敏感数据本地处理率达83%。

关键技术包括:1) 跨注意力特征融合模块动态加权多模态特征;2) 基于设备性能的模型动态分割算法;3) 在HAM10000、PAD-UFES-20等数据集上的迁移学习验证;4) 边缘-IoT协同推理时延优化策略。

【方法论】
研究设计了三阶段架构:首先通过ResNet-50和MLP分别提取图像与元数据特征;其次采用交叉注意力机制计算模态间特征相关性权重,生成融合特征向量;最后通过轻量级分类器输出诊断结果。协同推理时,IoT设备执行前1-3层卷积运算,边缘服务器处理注意力融合等高耗能操作。

【实验结果】
• 分类性能:在HAM10000七分类任务中达到95.73%准确率,较单模态基线提升7.2%。跨数据集测试显示AUC稳定在0.92以上。
• 效率对比:协同方案较纯边缘部署延迟降低47%,能耗减少32%。隐私敏感数据本地处理比例达78%-92%。
• 消融实验:交叉注意力机制对微小病灶(直径<5mm)的分类提升贡献率达63%。

【讨论】
该研究突破性地解决了多模态CAD系统的部署悖论——即高精度需求与资源限制的矛盾。动态任务分割算法使ResNet-50等复杂模型能在树莓派4B等设备上运行,推理速度达23FPS。值得注意的是,模型对亚洲人群特有色素沉着表现识别准确率较欧裔高8.7%,提示需进一步优化跨人种泛化性。

结论部分强调,该框架为医疗AI落地提供了新范式:1) 通过CAM机制实现临床数据与影像的语义级融合;2) 首创的"边缘-IoT"协同架构符合GDPR等隐私法规;3) 开源代码支持DICOM标准接入,可直接整合至医院PACS系统。未来可扩展至乳腺癌病理切片分析等场景,推动精准医疗普惠化发展。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号