加强乌干达健康研究中人工智能系统开发的伦理审查:研究伦理委员会的实用指南
《BMC Medical Ethics》:Strengthening ethics review of the development of artificial intelligence (AI) systems in health research: a guide for research ethics committees in Uganda
【字体:
大
中
小
】
时间:2025年10月19日
来源:BMC Medical Ethics 3.1
编辑推荐:
随着人工智能(AI)在乌干达健康研究中的快速发展,研究伦理委员会(REC)面临缺乏专业知识和国家指南的挑战。本研究通过定性访谈35名利益相关者,开发了包含六大主题(如促进社会价值与公平、确保参与者安全、负责任数据使用等)的AI研究伦理审查指南。该指南为REC审查AI协议提供了实用工具,对促进负责任AI发展、保护参与者权益具有重要意义。
在乌干达,传染性和非传染性疾病的高负担与薄弱的医疗基础设施并存,这促使人工智能(AI)等先进技术在医疗保健和研究中被加速开发与应用。AI通过设计模仿人类智能的计算机系统,使机器能够学习、推理和决策,在医疗领域旨在增强诊断、改进治疗计划并提升管理效率。例如,AI可以分析医学图像、预测疾病暴发或个性化患者护理,有望实现更快、更准确的诊断、降低医疗成本并改善服务可及性,特别是在资源匮乏地区。然而,尽管AI带来改善医疗结果的希望,其在健康研究中的应用却引发了一系列伦理问题,包括公平性、问责制以及法律法规不明确等担忧。尤其是在乌干达等低收入国家,缺乏针对AI健康研究的本土化伦理指南,研究伦理委员会(REC)普遍缺乏审查AI研究协议所需的资源、专业知识和培训,这可能导致对参与者及最终用户潜在风险的审查不足。
为此,Sylvia Nabukenya等人开展了一项研究,旨在为乌干达健康研究中AI系统开发的伦理审查制定一份实用指南。这项研究发表在《BMC Medical Ethics》期刊,旨在填补当前国家伦理指南在AI及先进技术应用方面的空白,并为REC提供审查AI研究协议的关键伦理考量,以最小化AI工具可能对参与者和最终用户造成的潜在伤害。
为开展此项研究,作者团队采用了探索性定性方法。研究于2024年3月至10月期间进行,地点为乌干达两所公立大学(马凯雷雷大学和姆巴拉拉科技大学)。研究共涉及35名利益相关者,包括12名曾审查过AI协议的REC成员、6名生物伦理学家、8名健康研究人员以及9名AI开发团队成员。数据收集主要通过深度访谈进行,并使用主题分析法对转录的访谈文本进行解读。
受访者普遍认为,开发的AI系统应对最终用户具有价值。益处体现在个体层面(如辅助医疗工作者进行准确诊断和有效治疗、减少候诊时间和潜在污名化)和社会层面(如预测疾病暴发、促进健康教育、分析社会行为和环境因素)。AI工具还被认为可用于促进社会凝聚与团结,汇集不同利益相关者的意见以解决特定健康挑战。REC在审查时应确保AI工具能最小化社会间的技术鸿沟。
在知情同意方面,尽管获取临床或研究数据用于AI是伦理上的必要之举,但对于公开可用数据(如社交媒体数据),在获得同意困难且研究具有重大社会效益时,REC可考虑豁免同意,但需确保风险最小化。在隐私与保密方面,建议对数据进行匿名化和聚合处理,以降低再识别风险。在决策中的人类监督方面,强调AI工具不应完全自主做出关乎参与者或患者健康的决策,必须由合格的专业人员进行确认,以避免误诊和自药等风险。
数据的性质由研究问题引导。数据来源多样(如云端、医疗记录、广播流等),但需注意不同来源数据的格式差异和质量问题,数据操纵、不公平访问和编码不良可能导致算法偏见。REC应确保研究人员能获取适当、充足和高质量的数据,并遵守数据保护法规(如乌干达《数据保护与隐私条例(2021)》),使用数据共享协议(DSA)等工具。AI系统开发者还需采取严格的安全措施,并定期审计系统,以防止外部攻击和数据泄露。
为防止数据被滥用,受访者强调数据最小化的重要性,即仅收集和访问与解决特定研究问题相关且必要的数据。这有助于在推动数据开放共享的同时,保护个人隐私。
- 1.问责制:明确AI系统的决策、行动和影响由人而非机器负责。需要清晰界定设计、部署和使用AI系统的团队角色,机构应建立监督、追责和定期审计机制。
- 2.透明性与开放性:研究人员和开发者应提供关于AI系统构建方式、工作原理、决策过程及其局限性的充分信息,使用简单语言编写手册,并建立反馈响应机制,以建立信任。
- 3.包容性与公平性:研究团队应多元化(包括不同学科、年龄和经验),并使用具有代表性、包容性的数据集,以最小化偏见。
- 4.可解释性:AI系统的运作原理应以最终用户能理解的简单语言进行解释。
- 5.可靠性:AI系统应努力提供一致、可预测和准确的结果。研究机构应建立质量保证标准操作程序(SOP),确保AI工具的决策值得信赖。
有效的社区和利益相关者参与对于建立长期关系、共同学习、解决误解以及根据最终用户需求定制AI功能至关重要。研究人员应明确社区参与策略,并由REC审查以确保尊重社区价值观和尊严。为确保AI工具的可持续性,研究团队需制定持续评估和改进策略,并与政府及非政府机构的相关利益相关者接触,以确保项目结束后AI产品能继续部署和使用。
该研究基于乌干达利益相关者的观点,开发了一份包含六大主题的指南,为REC审查健康研究中AI系统开发协议提供了关键的伦理考量和指导性问题。这份指南旨在帮助REC评估AI研究中的透明度、数据质量、知情同意、偏见、问责制和潜在危害等独特伦理维度,从而在促进技术创新的同时,保护参与者权利,培养公众信任,并推动公平的AI发展。研究者建议未来对该指南的实施效果进行研究,并对伦理委员会成员进行AI伦理审查关键考量方面的培训。同时,呼吁政策制定者制定适用于资源有限环境的、本土化的AI健康研究开发与部署指南。尽管研究存在作者背景可能带来的潜在偏见,但通过培训访谈主持人和营造舒适的访谈环境等措施,力求确保数据的可信度。这项研究为乌干达乃至类似背景的国家加强AI健康研究的伦理治理提供了重要的实践工具和理论参考。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号