综述:基于人工智能的临床决策支持系统的任务-技术匹配:一项定性研究的回顾

《BMC Medical Informatics and Decision Making》:Task-Technology Fit of Artificial Intelligence-based clinical decision support systems: a review of qualitative studies

【字体: 时间:2025年10月29日 来源:BMC Medical Informatics and Decision Making 3.8

编辑推荐:

  本综述通过任务-技术匹配(Task-Technology Fit, TTF)模型,系统梳理了21项定性研究,深入探讨了临床医生与人工智能临床决策支持系统(AI-CDSS)交互中的核心挑战与机遇。文章揭示了AI-CDSS在临床实践中的实际应用价值(如患者优先级排序、风险沟通)与设计缺陷(如可解释性不足、情境信息缺失),并强调了将系统设计重点从单纯预测准确性转向支持临床医生认知过程与信息需求的重要性,为AI-CDSS的负责任整合与效能优化提供了关键见解。

  

引言

人工智能(AI)在医疗保健领域展现出变革临床决策方式的巨大潜力。基于机器学习(ML)的人工智能临床决策支持系统(AI-CDSS)能够利用多源数据,为诊断、治疗和预后提供个性化建议,有望提升医疗服务质量并降低成本。然而,尽管技术不断发展,许多AI-CDSS在真实临床环境中的有效实施仍面临挑战。随机对照试验(RCTs)的系统评价表明,AI-CDSS对临床结局的影响往往有限,提示仅靠开发高精度的AI工具不足以实现其价值。实施科学强调需要一个综合的系统视角,考虑可接受性、可行性、保真度等多个维度,其中“适当性”(即AI-CDSS与临床任务的兼容性及临床医生感知的有用性)是一个尚未被充分探索的实施结局。
本文旨在通过任务-技术匹配(TTF)模型,综合定性研究,从临床医生的视角分析其与AI-CDSS的交互。TTF模型强调,技术的绩效评估必须考虑其使用情境,技术的有效性取决于任务特性、技术特性和使用者特性三者之间的匹配程度。与单纯关注技术采纳的模型(如UTAUT)不同,TTF更侧重于生成设计导向的建议,探索感知有用性的先决条件,这对于提升AI-CDSS的“适当性”至关重要。

任务-技术匹配(TTF)理论模型

任务-技术匹配(TTF)模型由Goodhue和Thompson提出,定义为“技术协助个体执行其任务组合的程度”。该模型认为,技术对绩效的影响取决于(1)任务特异性、(2)个体特征和(3)技术特性三者之间的契合度。TTF被置于更广泛的“技术-绩效链”模型中,其最终结果是绩效影响而非单纯的使用率,这强调了技术的负责任使用,防止在AI-CDSS场景下出现过度依赖(接受假阳性或假阴性预测)而导致绩效下降的问题。TTF模型特别适合为设计提供见解,因为它探索了感知有用性的前提条件。
本研究基于TTF模型框架,从与AI-CDSS交互的临床医生视角提出以下研究问题:
  1. 1.
    技术特性:临床医生认为AI-CDSS的哪些特定功能或特性增加或降低了其与临床任务的匹配度?
  2. 2.
    任务特性:哪些临床任务特性为AI-CDSS的感知TTF创造了机遇或带来了挑战?
  3. 3.
    个体临床医生特性:临床医生之间的差异如何影响他们对AI-CDSS的TTF感知?
  4. 4.
    感知的任务-技术匹配:临床医生以何种方式将AI-CDSS整合到其临床决策中?

方法

本研究通过系统文献检索,最终纳入了21项实证定性研究。这些研究评估了医疗专业人员与基于表格数据的AI-CDSS(排除影像和自然语言处理为主的系统)的交互。数据分析采用主题分析法,以TTF模型的核心组件(技术特性、任务特性、个体特性、感知TTF)作为先验编码类别,进行归纳式编码以衍生子主题。

技术特性:局限与需求

临床医生在实践中应用AI-CDSS时遇到了相似的局限性。例如,作为数据科学标准输出的百分比风险评分,在应用于个体患者时常常造成解读困难,反而不如三分类视觉风险分层更具可操作性。临床医生特别看重AI推荐的可行动性。提供具体任务建议(如药物剂量、实验室检查)的系统通常获得更积极的反馈,但过于细化的百分比差异或不切实际的建议(如过小的液体剂量)则会降低临床相关性。过度指令性的推荐可能引发“系统旨在取代医生”的担忧,从而限制其使用。
可解释人工智能(XAI)的价值主要体现在其能否揭示临床医生可干预的变量上。临床医生希望XAI能指明影响预测得分的关键可修改因素,从而指导临床行动。相反,关注不可控因素(如年龄)、提供医学上不切实际的反事实解释或仅展示反应性生理变量的XAI,其价值被认为有限。此外,临床医生强调驱动预测的变量之间应存在因果关系而非仅仅是统计关联,以获得有临床意义的解读。完全缺乏XAI的“黑箱”系统则可能导致较低的依从性。
AI-CDSS的另一大局限是缺乏临床医生所依赖的关键信息,如自由文本记录、床旁观察、患者互动以及保险政策等背景因素。数据文档质量差、医疗设备设置调整、医学知识的演进以及关键数据的延迟或不可用,也影响了任务的可用性。
尽管如此,临床医生也肯定了AI-CDSS的独特优势:处理大量参数和数据、整合临床医生无暇审阅的数据源(如护理记录)、检测临床医生难以察觉的细微模式变化和趋势(有助于及时干预)、以及通过可视化展示患者轨迹时间线以改善预测理解。然而,过早的预测(如4小时预测窗口)若缺乏临床验证,可能引发临床迟疑,尤其在担心可能造成医源性伤害时。
AI-CDSS还被认为在探索不同临床行动的影响方面具有价值。访问相似历史病例以比较治疗和诊断策略的功能受到欢迎,但需注意避免用户模仿经验不足医生的错误,且“患者相似性”的定义需审慎考虑。可调整预测(如比较不同治疗结果或实验室检查的影响)也被视为支持决策的宝贵方法。
临床医生普遍呼吁定制化功能,包括控制预测中使用的变量、定义相似性指标、灵活指定反事实分析特征,以及根据本地工作流、个体治疗策略和患者群体调整预测评分阈值,以避免警报疲劳或漏报。

任务特性:机遇与挑战

临床医生指出了AI-CDSS可提供宝贵辅助的几个应用领域:护理加速与患者优先级排序、运营效率提升、风险沟通以及为决策过程增添客观性。
AI-CDSS最常用于识别早期干预机会、加速护理以改善患者结局(如更快转入ICU、更早治疗谵妄)。风险评分在时间和资源受限的环境中能有效指导临床医生的注意力分配。在提升操作效率和减轻工作负荷方面,AI-CDSS能加速临床流程、执行计算和个性化治疗剂量、整合临床信息以避免信息过载。
在风险沟通方面,AI-CDSS有助于不同医疗专业人员之间的协调,在与患者及家属讨论时能提高治疗依从性,并在术前干预风险影响因素。此外,AI-CDSS通过提供循证支持,增强了护理人员在其临床判断(如建议延长住院或进行医疗程序)中的地位。
总体而言,AI-CDSS通过引入客观分析,有潜力增强临床决策。这种客观性在处理存在争议意见的病例、进行情绪化决策和对话、以及补充临床医生的直觉评估(如“Gestalt”和“gut feelings”)时尤为有价值。它有助于减轻人为错误、减少主观性、在疲劳和分心时保持注意力,并限制对患者的潜在个人偏见和临床判断中的近因偏差的影响。
然而,AI-CDSS的一个主要担忧是其数值输出难以完全顾及患者的复杂性、多样性和个体性,尤其是在共病情况下。临床医生强调需要将AI-CDSS与电子健康记录(EHR)集成以获取相关临床数据和背景信息。
但系统的一个根本性局限在于其无法像临床医生通过“临床整体观”和对个体患者病程的熟悉程度那样,对患者进行整体和定性感知。尽管如此,在临床医生不熟悉患者或无法沟通的情况下(如夜班),AI-CDSS被认为非常有用。
临床常规也限制了AI-CDSS的潜力:临床医生没有足够时间充分利用AI-CDSS功能、AI-CDSS所需的数据输入与患者护理期间的工作流不匹配、(假)警报对临床任务过于干扰等。因此,临床医生建议采用灵活、自适应的界面,根据需求定制数据显示,以防止在时间紧迫的环境中出现信息过载。

个体特性:能力与认知框架

案例研究记录了临床医生在感知AI-CDSS推荐值方面的个体差异,这归因于AI素养、临床专业水平经验和体验锚定。
由于AI-CDSS是近期才引入医疗领域,部分临床医生在AI素养方面存在困难,尤其是在XAI方面。这限制了对AI-CDSS推荐价值的准确解读。临床医生普遍认为AI-CDSS对初级临床医生或非专科医生最有益。有些临床医生对自身判断过于自信,完全忽视AI-CDSS结果。研究还观察到不同个体存在不同程度的确认偏差。
临床医生对AI推荐的评估受到既往患者经历(近因偏差)的影响,他们在经验有限的病例中更欣赏AI推荐。临床医生习惯的实践方式可能与AI推荐冲突,他们通常偏好自己的患者管理方法。
直觉在患者护理中扮演重要角色,尤其是当临床医生熟悉患者时。通过经验发展起来的直觉在做出患者管理决策时至关重要,这导致了高级和初级临床医生在使用AI-CDSS方式上的差异。

感知的任务-技术匹配

临床医生与AI-CDSS的互动方式多样,这与AI-CDSS输出结果的性质密切相关。具体的治疗建议往往比广义的风险评分更能支持AI-CDSS在决策中扮演更重要的角色。
AI-CDSS最常通过以贝叶斯式的方式影响临床医生的信心来间接影响决策,要么强化现有评估,要么鼓励基于其推荐进行重新考虑。在少数情况下,临床医生会完全忽视AI-CDSS输出,原因包括:与自身临床评估显著偏离、认为推荐不合逻辑、建议非常规或超出标准实践、以及认识到系统评分未考虑关键背景因素。
在其他情况下,即使不同意AI-CDSS推荐,也会促发各种后续行动,如咨询同事、下达检查单、进行体格检查、查阅患者健康记录或加强患者监护。这些行动,而非AI-CDSS输出本身,为他们的决策过程做出了贡献。AI-CDSS的作用更像是引发额外思考的契机,或验证决策的反馈工具。
总体而言,观察到两种不同类型的TTF:首先,AI-CDSS作为反馈系统受到高度重视,其监控患者状态、提醒临床发现以防止疏忽和标示患者护理中潜在错误的功能得到认可。其次,AI-CDSS通过提供替代观点、为临床医生整合临床数据或揭示数据中新模式等方式,为更明智的决策提供价值。当AI-CDSS功能未能提供任何新的信息见解时,一些临床医生会感到失望。

讨论

本综述通过TTF模型描述了临床医生与AI-CDSS交互时的观点,揭示了AI-CDSS设计中与临床任务未充分优化的元素。临床医生对AI-CDSS特性的评价往往与其临床任务的关系紧密相连。例如,百分比结果在用于患者优先级排序和协调沟通时受到好评,但在应用于个体患者病例时则易引发困惑。同样,XAI的数据驱动见解主要被重视于其能指导临床干预,而非单纯理解AI系统本身。临床医生建议的技术调整(如定制化界面、与EHR集成)也反映了TTF视角,旨在使AI-CDSS更好地补充临床医生技能(如识别趋势、整合数据、通过比较策略减少任务不确定性)。
TTF模型的分析范围较窄,未涵盖与技术使用相关的其他关键因素(如信任、UTAUT和TAM中的维度)。将TTF视角与其他模型整合,可以对技术采纳进行更全面的分析。尽管信任常被视为AI在医疗领域使用的先决条件,但任务特性(如复杂性和不确定性水平)也被发现独立于信任水平影响用户对AI的依赖程度。
与静态技术不同,AI-CDSS会持续监控和 refinement。这种适应性反而增强了理解任务-技术匹配的重要性。一些案例表明,基于用户反馈对AI-CDSS进行的修改(如实施三分类风险可视化)旨在实现更好的TTF。在自适应AI系统中,TTF驱动着优化过程。
为应对临床医生对AI-CDSS能否媲美其专业知识和直觉的怀疑,可通过教育帮助临床医生认识到AI-CDSS即使在没有完整背景数据的情况下也能提供准确预测,并提高AI素养。同时,AI-CDSS设计应通过专注于其能真正增加价值的领域(如信息提供)来考虑其在临床背景下的局限性,例如设计成交互式工具以增强对不同临床策略的探索和突出干预杠杆点,从而拓宽临床医生的视角而非与之竞争。
一个重要的发现是,临床医生经常表示其临床决策并非基于AI-CDSS预测。然而,深入分析揭示,即使临床医生不接受AI结果,他们也常会采取额外行动(如更多检查、咨询同事)以重新评估其临床判断。这代表了一种对其初始直觉专家判断进行“分解”的审慎理性过程。因此,AI-CDSS可以通过促使临床医生反思自身判断来提高临床绩效,防止隧道视野。这种替代用途要求在设计策略上考虑如何让临床医生在受AI-CDSS影响前,能基于直觉和专业知识形成初步判断,并反思AI-CDSS在多大程度上被充分利用。

结论

AI-CDSS有潜力增强临床决策,但其在临床实践中的成功仍然有限。本综述通过TTF模型分析发现,AI-CDSS的设计常未完全针对临床实践优化。临床医生普遍难以将AI-CDSS特性直接应用于临床任务。此外,由于AI-CDSS通常缺乏临床医生所掌握的相关背景知识,其评估在个体患者层面常被质疑。临床医生主要看重AI-CDSS生成独特数据驱动见解的能力,如探索潜在临床干预效果和提供基于趋势的信息。分析由此指出了指向AI-CDSS在支持更明智临床决策方面的补充性质的设计启示。AI-CDSS以多种方式被整合到实践中,对某些临床医生而言,它充当批判性反思的工具,而对另一些人则更直接地融入决策过程。这些发现为未来系统探索临床医生与AI交互的研究奠定了基础,有助于设计更符合临床需求的AI-CDSS,支持临床医生应对决策挑战,最终改善患者护理。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号