AI赋能糖尿病视网膜病变筛查的信任危机与伦理治理——来自全球南方的实证研究

《BMC Medical Ethics》:Evaluating trustworthiness in AI-Based diabetic retinopathy screening: addressing transparency, consent, and privacy challenges

【字体: 时间:2025年10月19日 来源:BMC Medical Ethics 3.1

编辑推荐:

  本研究针对AI糖尿病视网膜病变(DR)筛查中的透明度、知情同意与隐私保护难题,通过15位眼科医生、AI开发者及伦理专家的深度访谈,揭示了算法有效性、数据殖民化、伦理审批缺失等六大信任维度。研究发现AI公司存在数据收集不规范、患者所有权意识薄弱等关键缺陷,为构建符合全球南方语境的负责任AI生态系统提供了实证依据。

  
当人工智能(AI)以革命性姿态闯入医疗领域,糖尿病视网膜病变(DR)筛查成为其最具潜力的应用场景之一。这种糖尿病引发的微血管并发症,是全球可预防性失明的主要元凶。AI算法能快速分析眼底图像,理论上可解决中低收入国家眼科医生短缺的困境。然而光鲜背后暗流涌动——当全球80%的AI伦理研究都来自高收入国家时,全球南方(Global South)的医疗数据正面临新型"数据殖民化"风险:科技公司大量采集患者眼底图像,却未建立透明的数据所有权和利益共享机制。
这种技术乐观主义与伦理失范的碰撞,在印度医疗系统中尤为尖锐。2022年冬季,Chauhan等研究者开启了一项揭示AI伦理黑箱的探索。他们发现,尽管AI在DR筛查中展现出80%的社区级病例管理能力,但患者对自己的数据去向一无所知,AI开发者直言"先收集数据再考虑用途",眼科医生则认为伦理审查会拖慢临床流程。这种各方认知的撕裂,使得《BMC Medical Ethics》最新发表的这项研究具有了破冰意义。
方法学创新:多维度解构AI信任框架
研究采用定性研究方法,基于OECD可信赖AI原则设计访谈提纲,对眼科医生(Opth)、项目官员(PO)、AI开发者(IP)、伦理专家(BE)及法律专家(LE)五类关键参与者进行半结构化访谈。通过MAXQDA软件进行主题分析,采用三阶段编码流程确保信度,编码者间一致性达96.5%。特别值得注意的是研究团队特别关注印度公立医疗系统(如旁遮邦地区医院)与私营诊所的数据实践差异,这种双轨制分析为理解全球南方的AI落地困境提供了独特视角。
六大发现勾勒AI伦理图谱
算法有效性与临床接受度悖论
所有参与者承认AI能显著降低转诊超负荷,但眼科医生坚持"DR分级必须由眼科医生完成"(Opth 3)。这种对AI诊断准确性的保留态度,折射出技术效能与专业权威之间的张力。
数据实践中的殖民化倾向
AI开发者坦言数据收集策略:"我们自己组织筛查营"(IP 1),"先收集数据再看能做什么"(IP 2)。这种先占后证的模式,结合患者对数据所有权的认知空白,形成了典型的数据殖民化(data colonialism)特征——大量眼底图像在未明确后续用途的情况下被持续采集。
伦理审批的制度性缺失
行业伙伴称伦理审查"会扼杀创新"(IP 3),眼科医生担忧"无法为AI单独获取同意"(Opth 2)。而法律专家尖锐指出:"如果需要数据,拿走便是,有什么大不了的"(LE 1)。这种对伦理框架的功利主义态度,导致印度《数字个人数据保护法》(DPDP) 2023在实操层面被架空。
黑箱算法与解释困境
尽管开发者强调通过94,000例眼底图像训练模型,但决策过程仍如"黑箱"(black box)。一位项目官员直言:"除非是眼科医生,否则不应进行DR分级"(PO 2),反映出对AI判断可靠性的深层疑虑。
实施挑战与监管真空
研究揭示印度AI医疗处于"绕过严格测试和法律审查"(LE 2)的灰色地带。现有监管框架如NITI Aayog《负责任AI指南》缺乏强制力,导致算法偏见、数据安全等问题缺乏追责机制。
责任界定的法律迷思
关于误诊责任,开发者认为"医生应负责"(IP 1),眼科医生反指"责任在开发者"(Opth 4)。这种责任归属的模糊性,暴露出AI医疗法律框架的原始性。
结论:构建南方语境的AI治理范式
本研究通过立体化 stakeholder 视角,揭示了AI在DR筛查中面临的信任危机本质:不仅是技术问题,更是权力分配、伦理共识与制度设计的系统性挑战。特别指出在全球南方语境下,数据殖民化风险与跨越式发展的诱惑形成独特张力。研究者强调,必须建立符合LMIC特点的伦理审查机制,将数据所有权、算法透明度与惠益共享纳入AI全生命周期管理。
这项研究的深远意义在于,它打破了AI伦理讨论中的全球北方话语垄断,为印度及类似地区的AI治理提供了实证基础。当医疗AI以"赋能"之名进入全球南方时,本研究敲响了警钟:没有伦理约束的技术进步,可能成为新型殖民主义的温床。正如研究者警示的,构建可信赖AI需要超越技术优化,建立包含患者权利、文化语境与分配正义的多维治理生态。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号