编辑推荐:
在人道援助中,数据处理面临诸多伦理风险,当前指南难以应对。研究人员开展 “Ethical implications related to processing of personal data and artificial intelligence in humanitarian crises” 的研究。结果识别出 22 个伦理问题,涉及隐私、数据准确性等。这为制定相关指南等提供依据,推动人道数据处理伦理发展。
在当今复杂的人道援助场景中,人道主义组织面临着资源短缺的困境。比如到 2024 年底,捐赠政府提供的 212 亿美元仅能帮助 72 个国家的 1.98 亿人,远低于满足 3.23 亿人道需求所需的 496 亿美元。为了更高效地开展援助,这些组织越来越依赖数据处理,收集和分析大量来自受影响人群的数据。然而,这一过程却隐藏着诸多隐患。一方面,工作人员常因工作性质成为袭击目标,使得远程数据管理方式加速发展,数据量呈指数级增长;另一方面,人工智能(AI)等新技术在健康和人道领域的应用日益广泛,虽然带来了创新机遇,但也引发了一系列前所未有的伦理问题。现有相关指南难以跟上技术创新的步伐,无法全面解决这些问题,在此背景下,开展关于人道危机中数据处理伦理问题的研究迫在眉睫。
来自多个机构的研究人员,包括 Kobo、麦吉尔大学健康中心等,开展了一项范围界定审查(scoping review)研究。该研究成果发表在《BMC Medical Ethics》上,对相关领域具有重要的参考价值。
研究人员采用了一系列严谨的技术方法。首先,他们制定了详细的研究方案,遵循 Arksey 和 O’Malley 的方法以及 PRISMA-ScR 报告指南。在文献检索方面,通过电子数据库进行全面搜索,涵盖 Ovid、Ebsco、Web of Science 和 Proquest 等平台的 20 个数据库,检索 2010 年 1 月 1 日至 2024 年 8 月期间发表的研究,仅纳入英文、法文或西班牙文的研究。在筛选研究时,制定了严格的纳入和排除标准,由两名评审员独立筛选,并通过多次会议讨论解决评级差异。数据收集阶段,从纳入研究中提取研究特征、人群特征、干预特征和结果等详细信息,并使用 DistillerSR 软件进行数据管理和分析,利用 SPSS 25 对文本形式的伦理问题进行编码和分析。
研究结果如下:
- 文献检索与研究特征:数据库检索共获得 16200 条记录,去除重复后筛选出 11419 条,最终纳入 218 项研究。这些研究大多发表于 2015 年后,作者主要来自欧洲和中亚(63%)、北美(34%)的高收入国家,且多数作者来自学术机构。研究涉及的人道主义危机类型多样,包括灾害(28%)、武装冲突(30%)等,数据处理目的主要为进行评估(24%)、注册 / 病例管理(23%)等。
- 技术应用与伦理问题:研究中最常描述的数据处理技术包括社交媒体(34%)、AI 相关技术(30%)等。共识别出 22 个伦理问题,涵盖自主(autonomy)、行善(beneficence)、不伤害(non - maleficence)和公正(justice)四个伦理价值类别。其中,隐私问题(61%)是最常被提及的不伤害相关伦理问题,如个人或敏感数据可能被与第三方共享;数据处理不准确(50%)是行善类别中常见问题;数据收集缺乏充分知情同意(42%)属于自主类别问题;数据处理存在偏差导致援助分配不公平(56%)则涉及公正类别。
- 信息来源与 AI 相关研究:略超半数研究(52%)引用了现实生活中的伦理问题示例,多数研究(86%)通过访谈或专家咨询提出伦理问题。在 66 项讨论 AI 的研究中,主要涉及灾害场景,数据处理目的多为评估、提供援助等,常见伦理问题包括数据处理偏差、隐私和数据不可靠等。
研究结论和讨论部分指出,本研究识别出的 22 个伦理问题表明,人道数据处理存在潜在危害,可能侵犯人群自主权、导致资源分配不公平等。例如,隐私问题凸显了个人数据处理方式可能危及受影响人群的隐私权;数据处理偏差直接影响了援助的公平分配。地理上,高收入国家作者的研究占主导,低收入和中等收入国家的视角代表性不足,研究还存在对某些技术关注不均衡的问题。当前人道主义数据保护指南、培训和问责机制不足以应对这些问题。未来需要进一步研究常见人道工具和数据管理流程的合理使用,关注冲突环境中的伦理问题,开展 AI 早期应用的案例研究,以制定更好的指导、培训和审计方法,确保人道组织在数据处理时遵循伦理原则,保障受危机影响人群的尊严和权利,提升人道响应的有效性和公平性。