可解释人工智能(XAI)结合眼动追踪技术提升皮肤科医生黑色素瘤诊断准确性的认知机制研究

【字体: 时间:2025年05月22日 来源:Nature Communications 14.7

编辑推荐:

  本研究通过76名皮肤科医生的眼动追踪实验,首次量化评估了可解释人工智能(XAI)对黑色素瘤诊断的认知影响。结果显示XAI使诊断平衡准确率提升2.8个百分点,且诊断分歧与复杂病例会引发更高认知负荷(眼动注视次数增加)。该研究为医学AI工具设计提供了客观行为学证据,发表于《Nature Communications》。

  

黑色素瘤作为致死率最高的皮肤恶性肿瘤,早期诊断直接决定患者预后。尽管人工智能(AI)已显著提升皮肤科医生的诊断效能,但传统"黑箱"式AI系统存在解释性不足的缺陷,导致临床医生对其决策缺乏信任。更关键的是,医生如何实际使用AI解释信息、这些解释如何影响诊断认知过程,此前仅能通过主观问卷评估,缺乏客观行为学证据。

德国癌症研究中心(DKFZ)领衔的国际团队通过创新性结合眼动追踪技术与可解释人工智能(XAI),首次揭示了皮肤科医生使用AI辅助诊断时的认知机制。研究设计为两阶段读者研究:第一阶段(AI阶段)医生仅接收AI的良恶性预测结果,第二阶段(XAI阶段)则额外获得基于Derm7pt标准的可视化解释(包括特征区域定位和文本说明)。研究同步采用网络摄像头(51人)和专业眼动仪(25人)双系统记录医生注视行为,确保数据可靠性。

关键技术包括:1)改进型概念瓶颈模型(同时优化诊断预测头和特征预测头);2)基于HAM10000和多中心前瞻性数据集的活检验证图像(共3635例);3)动态注视点分析(阈值100-300毫秒);4)诊断难度量化(通过医生诊断分歧熵值计算);5)双模态眼动追踪验证体系。

研究结果显示:
XAI显著提升诊断准确性
XAI支持下的医生平衡准确率达82.7%(95% CI 80.3-85.0%),较传统AI提升2.8个百分点(P=0.013)。这种提升与医生经验无关(Spearman r=-0.08),且设备组准确率更高(84.0% vs 81.0%),提示标准化环境能优化AI辅助效果。

诊断分歧引发认知负荷激增
当医生与AI预测不一致时,注视次数从14.2次(一致时)骤增至19.6次(P<0.001)。XAI阶段该现象更显著(17.1→28.7次),说明解释信息虽提升准确性,但争议案例仍需更多认知资源。专业眼动仪捕获的注视次数是网络摄像头的2.6倍,但趋势高度一致。

经验决定视觉搜索效率
资深医生(>10年经验)注视次数显著少于新手(Spearman r=-0.44),这种优势在XAI阶段仍保持(r=-0.31)。设备组相关性更强(r=-0.78),证实专业环境能更好区分经验差异。

复杂病变增加认知负荷
AI阶段病变诊断难度(医生间分歧熵值)与注视次数呈弱相关(r=0.14),但XAI阶段相关性消失。提示XAI可能通过结构化解释降低复杂病例的认知负担。

这项研究开创性地将认知科学与医学AI相结合,证实XAI通过双重机制发挥作用:既提升整体诊断准确性(+2.8%),又通过解释信息重构医生的认知加工策略。发现医生会主动投入更多认知资源验证与AI的分歧点,这一行为模式为开发"争议触发式解释"系统提供了依据。研究同时建立了眼动指标与临床决策质量的量化关系,为未来AI工具的可用性测试提供了新范式。

论文局限性包括网络摄像头精度限制、缺乏患者元数据支持等。作者建议后续研究可结合语音报告分析(think-aloud protocol)深入挖掘决策逻辑,并在真实临床环境中验证发现。这些成果不仅适用于皮肤科,对放射科、病理学等依赖视觉诊断的领域均有重要启示。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号