慢性病患者视角下临床人工智能系统的政策与监管探索

【字体: 时间:2025年05月30日 来源:Health Policy and Technology 3.4

编辑推荐:

  本研究聚焦慢性病患者对临床AI系统的接受度与担忧,通过在线开放问卷收集140名患者数据,采用归纳式主题分析法揭示:92.86%参与者存在技术伦理顾虑(如AI偏见、人文关怀缺失),44.57%主张多方共担责任,80%仍倾向医生建议。成果为制定患者中心的AI医疗治理策略提供实证依据,发表于《Health Policy and Technology》。

  

人工智能(AI)正在重塑医疗健康领域,全球市场规模预计从2021年的66亿美元飙升至2028年的956.5亿美元,年增长率高达46.1%。然而,在这场技术革命中,慢性病患者——这一最需要长期医疗支持的群体——的声音却鲜被听见。他们的担忧、期待和对责任归属的看法,直接影响着AI技术的落地效果。正是基于这一背景,Stevens Institute of Technology的研究团队开展了这项探索性研究,试图揭开慢性病患者对临床AI系统的真实态度。

研究采用亚马逊土耳其机器人(MTurk)平台招募140名慢性病患者,通过开放式问卷收集其对AI医疗四大核心问题的看法:使用顾虑、政府角色、责任划分及人机偏好。数据通过归纳式主题分析(inductive thematic analysis)进行编码,确保结论源自患者原始表述而非预设框架。

RESULTS部分揭示多重发现

  1. 患者忧虑:92.86%参与者表达明确担忧,其中"人文关怀缺失"(22.86%)、"算法偏见与公平性"(16.43%)和"过度依赖风险"(16.43%)位列前三。一位糖尿病患者的典型反馈是:"AI无法理解我因血糖波动产生的焦虑"。
  2. 责任归属:37.14%认为医生应担责,16.43%指向开发者,仅1.42%归咎政府,而44.57%主张"责任共担模式",强调"需建立医生-开发者-保险公司的三方追责链"。
  3. 政府角色:51.43%要求强化监管,8.57%认为政府无需介入,凸显政策认知的分化。
  4. 人机选择:80%患者坚持医生主导,但部分年轻受访者表示"若AI准确率超过95%会考虑尝试"。

CONCLUSIONS部分指出:尽管患者短期内更信任人类医生,但对AI潜力的开放态度暗示观念可能随技术成熟而演变。研究强调必须建立"监管包容性框架"(governance-inclusive framework),通过明确责任划分、消除算法偏见(algorithmic bias)和保留人文元素来提升接受度。

这项研究的独特价值在于首次系统梳理了慢性病群体的AI医疗诉求,其提出的"责任共担"模型为各国制定医疗AI政策提供了关键参考。正如作者所言:"当AI开始解读CT影像时,我们更需要读懂患者眼中的忧虑与期待。"

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号