人工智能临床决策支持系统的应用困境与突破路径:多学科专家访谈研究

【字体: 时间:2025年08月11日 来源:Journal of Medical Internet Research 6

编辑推荐:

  本研究聚焦AI(人工智能)在临床决策支持系统(CDSS)应用中的关键障碍,通过15位跨领域专家的深度访谈,系统识别出技术、数据、用户等7大类309项具体问题,其中用户接受度(33%)和数据质量(19.1%)构成主要挑战,为优化AI-CDSS开发流程和临床应用提供了实证依据。

  

在医疗数字化浪潮中,人工智能(AI)正以前所未有的速度重塑临床决策模式。从皮肤科到放射科,美国FDA批准AI医疗设备的年增长率已突破30%,但耀眼数字背后隐藏着严峻挑战——当算法开始参与生死决策,医生们却常对"黑箱"推理过程一头雾水,医院信息系统与AI软件兼容性不足,更别提那些因数据偏见可能导致种族歧视的潜在风险。这些痛点使得AI临床决策支持系统(CDSS)陷入"叫好不叫座"的尴尬境地。

德国杜伊斯堡-埃森大学医疗管理与研究所(Institute for Healthcare Management and Research, University of Duisburg-Essen)的研究团队Godwin Denk Giebel等学者联合多领域专家,开展了一项开创性研究。通过半结构化访谈收集15位利益相关者的309条问题陈述,采用MAXQDA软件进行定性内容分析,最终在《Journal of Medical Internet Research》发表的研究揭示了AI-CDSS落地难的深层原因。

研究团队采用三大关键技术方法:1)基于范围综述制定访谈指南,覆盖系统开发全周期问题;2)对患者代表、医师、AI开发者等7类群体进行线上深度访谈;3)运用Kuckartz方法论进行三级编码分析,通过共识研讨会验证问题分类框架。

研究结果呈现多维洞见:

技术维度揭示算法存在"敏感度-特异度"悖论,14.9%问题涉及模型不可解释性;

数据维度中19.1%问题指向"垃圾进垃圾出"现象,医疗数据碎片化尤为突出;

用户维度占比最高(33%),暴露自动化偏见(automation bias)和警报疲劳等行为风险;

法律维度10.7%问题聚焦认证瓶颈,欧盟仅4家机构可审批AI医疗软件。

这项研究首次系统绘制了AI-CDSS应用障碍的全景图谱。其创新价值在于将传统CDSS的已知缺陷(如系统僵化)与AI特有风险(如算法歧视)进行关联分析,提出"开发-临床-通用"三维问题分类框架。特别值得注意的是,33%的医师代表担忧AI会削弱医疗自主权,而护理代表则指出护理领域AI应用存在严重投入不足。这些发现为制定《医疗AI伦理指南》提供了关键证据,提示政策制定者需平衡技术创新与患者安全,正如研究者强调的"AI应增强而非取代人类临床判断"。该成果对推动可信AI在重症监护等高风险场景的落地具有重要指导意义。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号