
-
生物通官微
陪你抓住生命科技
跳动的脉搏
人工智能临床决策支持系统的应用困境与突破路径:多学科专家访谈研究
【字体: 大 中 小 】 时间:2025年08月11日 来源:Journal of Medical Internet Research 6
编辑推荐:
本研究聚焦AI(人工智能)在临床决策支持系统(CDSS)应用中的关键障碍,通过15位跨领域专家的深度访谈,系统识别出技术、数据、用户等7大类309项具体问题,其中用户接受度(33%)和数据质量(19.1%)构成主要挑战,为优化AI-CDSS开发流程和临床应用提供了实证依据。
在医疗数字化浪潮中,人工智能(AI)正以前所未有的速度重塑临床决策模式。从皮肤科到放射科,美国FDA批准AI医疗设备的年增长率已突破30%,但耀眼数字背后隐藏着严峻挑战——当算法开始参与生死决策,医生们却常对"黑箱"推理过程一头雾水,医院信息系统与AI软件兼容性不足,更别提那些因数据偏见可能导致种族歧视的潜在风险。这些痛点使得AI临床决策支持系统(CDSS)陷入"叫好不叫座"的尴尬境地。
德国杜伊斯堡-埃森大学医疗管理与研究所(Institute for Healthcare Management and Research, University of Duisburg-Essen)的研究团队Godwin Denk Giebel等学者联合多领域专家,开展了一项开创性研究。通过半结构化访谈收集15位利益相关者的309条问题陈述,采用MAXQDA软件进行定性内容分析,最终在《Journal of Medical Internet Research》发表的研究揭示了AI-CDSS落地难的深层原因。
研究团队采用三大关键技术方法:1)基于范围综述制定访谈指南,覆盖系统开发全周期问题;2)对患者代表、医师、AI开发者等7类群体进行线上深度访谈;3)运用Kuckartz方法论进行三级编码分析,通过共识研讨会验证问题分类框架。
研究结果呈现多维洞见:
技术维度揭示算法存在"敏感度-特异度"悖论,14.9%问题涉及模型不可解释性;
数据维度中19.1%问题指向"垃圾进垃圾出"现象,医疗数据碎片化尤为突出;
用户维度占比最高(33%),暴露自动化偏见(automation bias)和警报疲劳等行为风险;
法律维度10.7%问题聚焦认证瓶颈,欧盟仅4家机构可审批AI医疗软件。
这项研究首次系统绘制了AI-CDSS应用障碍的全景图谱。其创新价值在于将传统CDSS的已知缺陷(如系统僵化)与AI特有风险(如算法歧视)进行关联分析,提出"开发-临床-通用"三维问题分类框架。特别值得注意的是,33%的医师代表担忧AI会削弱医疗自主权,而护理代表则指出护理领域AI应用存在严重投入不足。这些发现为制定《医疗AI伦理指南》提供了关键证据,提示政策制定者需平衡技术创新与患者安全,正如研究者强调的"AI应增强而非取代人类临床判断"。该成果对推动可信AI在重症监护等高风险场景的落地具有重要指导意义。
生物通微信公众号
知名企业招聘