
-
生物通官微
陪你抓住生命科技
跳动的脉搏
人工智能治理对可持续发展目标3(健康与福祉)的规范性影响:国际与国内政策比较分析
【字体: 大 中 小 】 时间:2025年05月30日 来源:Health Affairs Scholar
编辑推荐:
为解决AI技术在医疗健康领域应用的伦理与治理难题,Dr Francesca Mazzi团队系统评估了联合国、OECD等10个国际组织及国家的AI政策框架。研究发现欧盟《AI法案》通过高风险分类强化医疗AI监管,英美采取柔性创新导向策略,巴西则趋近欧盟风险管控模式。该研究为平衡AI技术创新与健康伦理治理提供了关键政策参考,发表于《Health Affairs Scholar》。
随着人工智能(AI)在医疗诊断、流行病预测和健康管理领域的快速渗透,其带来的伦理困境与治理挑战日益凸显。从算法偏见导致的健康不平等,到跨境医疗数据流动的法律冲突,各国在拥抱AI医疗红利的同时,正面临如何将其纳入可持续发展目标3(SDG 3)——"确保健康生活并促进全年龄段福祉"的规范性难题。Brunel University London的Dr Francesca Mazzi团队在《Health Affairs Scholar》发表的研究,首次系统比较了全球主要AI治理框架对健康目标的实现路径差异。
研究采用政策文本分析法,选取联合国AI咨询机构临时报告、OECD原则等5个国际框架,以及欧盟《AI法案》、中国AI立法草案等5个国家/地区政策作为样本。通过建立与SDG 3九大健康主题(如母婴健康、非传染性疾病等)的映射矩阵,团队量化评估了各政策对健康目标的覆盖深度与执行力度。
在"国际框架的规范性影响"部分,研究发现联合国报告强调AI应服务脆弱群体健康需求,特别是通过基因组学加速结核病诊断;UNESCO则独创性地在伦理建议中设立"性别响应型AI"条款(Policy Area 6),要求消除孕产妇健康领域的算法偏见。相比之下,G20指南虽未直接提及具体疾病,但其倡导的"韧性数字基础设施"为传染病预警系统奠定基础。
"国家框架的规范性影响"揭示出显著的地域差异:欧盟将医疗AI归入高风险类别,强制要求临床决策支持系统满足GDPR(通用数据保护条例)级数据保护;英国"亲创新"政策则通过自动化分诊系统提升医疗效率,但缺乏对算法透明度的硬性约束。值得注意的是,巴西草案首创"生态平衡发展"条款(第5.2条),将环境健康纳入AI治理范畴。
讨论部分尖锐指出,欧盟式严格监管虽能降低AI医疗事故风险,但可能抑制中小企业创新;而美国2025年行政令取消AI发展限制的做法,虽加速技术迭代却可能放大健康不平等。作者特别强调,中国草案中"未成年人内容过滤"条款(第24条)为儿童心理健康保护提供了新范式。
该研究的里程碑意义在于构建了首个AI政策-SDG 3评估矩阵,为WHO等组织制定全球健康AI标准提供实证基础。正如作者指出,当AI诊断准确率每提升1%都意味着数百万生命获救时,如何在"刹车"与"油门"间找到政策平衡点,将成为后疫情时代全球健康治理的核心命题。
生物通微信公众号
知名企业招聘