对美国医疗领域中患者和医生对人工智能应用态度的评估

《Frontiers in Anesthesiology》:Assessment of patient and physician sentiment on artificial intelligence use in US healthcare

【字体: 时间:2025年11月24日 来源:Frontiers in Anesthesiology

编辑推荐:

  人工智能在医疗领域的应用现状与群体差异研究。采用随机拦截技术在线调查了美国382名医生和760名患者,结果显示:83%医生和82%患者对AI辅助决策表示舒适或中性,其中外科类医生(92%舒适)显著高于内科类(68%),但两群体对AI信任度无显著差异(P>0.05)。值得关注的是,65岁以上患者对AI技术接受度(51%中性/舒适)显著低于16-44岁群体(78%)。研究强调AI整合需考虑专科特性与用户代际差异,建议采用"人类在环"的协作模式。

  人工智能(AI)在医疗领域的应用已经涵盖了从辅助诊断到电子健康记录优化,再到个性化治疗和行政自动化等多个方面。随着技术的快速发展,AI在医疗中的应用正变得越来越广泛。然而,尽管AI在提升医疗效率和准确性方面展现出巨大潜力,其在临床实践中的有效整合仍然依赖于医务人员和患者对AI的接受度和信任感。因此,理解这两类群体对AI应用的态度对于推动其在医疗领域的合理使用至关重要。

为了深入了解医务人员和患者对AI在医疗中的看法,研究人员在美国范围内进行了一项匿名在线调查。调查通过一种名为“随机域拦截技术”(RDIT)和“随机设备参与技术”(RDE)的方法,收集了具有代表性的在线反馈。这些技术能够减少传统调查中常见的自我选择偏差、社会期望偏差以及网络覆盖率偏差,从而确保调查结果更具广泛性和代表性。调查对象被分为两类:医生和患者,共计1142份有效问卷。通过对这些数据的分析,研究人员探讨了AI在医疗决策中的使用情况、医生和患者对AI系统的信任程度,以及AI对医患关系可能产生的影响。

调查结果显示,医生和患者普遍对AI在医疗决策中的应用持积极态度。大多数受访者表示对AI的支持持中立或接受态度,约三分之一的人更倾向于采用医生与AI协作的模式。这种趋势表明,AI作为一种辅助工具,在医疗实践中具有广泛的应用前景。然而,不同专科的医生在对AI的接受程度上存在差异。以手术为主的专科医生表现出更高的接受度,而以诊断为主的专科医生则相对谨慎。这种差异可能源于手术专科医生在日常工作中更频繁地接触和使用技术工具,而诊断专科医生可能更关注AI是否会取代人类的判断能力。

对于患者而言,虽然他们对AI的支持也表现出一定的积极态度,但与医生相比,患者更倾向于强调人机协作的模式。调查发现,患者在信任度方面更倾向于AI与医生共同决策,而不是完全依赖AI。这种信任度的差异可能与患者对AI的了解程度、对技术可靠性的认知以及对医生专业性的依赖有关。尽管如此,大多数患者认为AI的引入不会削弱医患关系,反而可能通过减轻医生的行政负担,使其有更多时间和精力专注于与患者的互动。

在医患关系方面,医生和患者的看法基本一致。他们普遍认为AI的引入可能会对医患关系产生积极影响,例如通过提高医疗效率、减少错误率以及优化患者体验。然而,也有部分受访者表示担忧,认为AI可能会导致医生与患者之间的沟通减少,或者使患者对医生的判断产生怀疑。因此,如何在AI应用中保持医生与患者之间的信任关系,是未来需要重点关注的问题。

本研究的发现表明,AI在医疗领域的应用需要结合不同专科医生的实际需求,以及患者的具体期望。例如,手术专科医生可能更愿意将AI用于术前规划和手术过程中的辅助决策,而诊断专科医生则可能更关注AI在诊断过程中的准确性和透明度。此外,患者对AI的信任程度与他们的年龄、教育背景以及对技术的熟悉程度密切相关。年轻患者和那些在数字技术方面较为熟悉的个体,往往更容易接受AI在医疗中的应用。

尽管本研究的调查方法具有一定的代表性,但其仍存在一些局限性。例如,由于调查是在线进行的,可能会排除那些缺乏互联网访问权限或数字技能的群体。此外,自选参与的模式可能导致样本存在一定的偏差,即更倾向于接受AI的人更可能参与调查。因此,研究结果可能无法完全代表所有医疗从业者和患者的观点。同时,调查结果基于受访者自我报告的数据,可能会受到回忆偏差和社会期望偏差的影响。

为了克服这些局限性,研究者建议未来可以采用更广泛的调查方法,包括面对面访谈、焦点小组讨论以及实地观察等,以获取更全面和深入的信息。此外,还可以结合定性和定量研究方法,不仅分析数据的统计特征,还要探讨医生和患者在使用AI时的具体体验和感受。这将有助于更全面地理解AI在医疗中的应用潜力,并为未来的政策制定和技术开发提供更坚实的依据。

从更广泛的角度来看,AI在医疗中的应用不仅仅是技术问题,更是社会和伦理问题。随着AI在医疗中的深入发展,如何确保其在临床实践中的公平性、透明性和可解释性,将成为一个重要的研究方向。例如,AI在诊断过程中可能会出现误判,而这些误判的责任归属问题需要明确。此外,AI的使用可能会对医生的职业角色产生影响,尤其是在决策权和专业性方面。因此,医疗机构和政策制定者需要在推动AI应用的同时,充分考虑这些潜在的影响,并制定相应的规范和指导方针。

本研究的结论强调了AI在医疗领域的应用需要因地制宜,结合不同专科医生的需求和患者的实际体验进行优化。例如,AI系统的设计应充分考虑医生在诊断和治疗中的实际工作流程,以确保其能够真正提升医疗质量,而不是增加工作负担。同时,患者的需求也需要被充分考虑,例如他们对AI透明度和隐私保护的期望,以及他们对医生专业性的信任程度。

总体而言,AI在医疗领域的应用前景广阔,但其成功的关键在于如何获得医务人员和患者的广泛接受与信任。通过深入研究医生和患者对AI的看法,可以为AI技术的进一步发展和应用提供重要的参考依据。未来的研究应更加注重实际应用场景中的体验反馈,以确保AI能够真正服务于医疗行业,提升医疗服务的效率和质量,同时维护医患之间的信任关系。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号