综述:重新审视临床算法中种族、性别和年龄的使用以解决实践中的偏见:一篇讨论论文

【字体: 时间:2025年07月08日 来源:International Journal of Nursing Studies Advances 3.1

编辑推荐:

  这篇讨论论文深入探讨了临床风险计算器(risk calculators)中纳入人口统计学变量(如种族、性别、年龄)的伦理与科学争议,通过机器学习生命周期框架揭示了历史偏见(historical bias)、测量偏差(measurement bias)和部署偏差(deployment bias)如何导致表征性伤害(representational harm)和分配性伤害(allocative harm),并提出了修订后的算法评估框架(FAIRS扩展版),呼吁临床工作者摒弃简化的人口统计学代理变量,直接测量生物机制以遵循公正(justice)与不伤害(non-maleficence)的生物伦理原则。

  

背景

临床算法作为决策支持工具,通过整合患者特异性特征预测健康结局,其中风险计算器(risk calculators)尤其常用于基于风险评估的医疗资源分配。尽管这些工具通常依赖生理数据,但种族、性别和年龄等人口统计学变量常被纳入模型。近年来,种族变量的使用因简化生物差异、加剧服务分配不公而备受质疑,但性别和年龄的潜在危害却鲜少被讨论。

识别算法偏见的框架

借鉴Suresh和Guttag的机器学习生命周期框架,算法偏见可分为三类:

  1. 历史偏见:反映社会固有歧视(如性别歧视、年龄歧视),通过数据渗透至算法;
  2. 测量偏差:简化复杂生物构造(如用二元性别编码替代激素水平,用时序年龄替代生物衰老标志物);
  3. 部署偏差:导致资源分配不公(如女性或老年人被系统性排除于高风险治疗)。

历史偏见的双重维度

性别歧视:医疗系统中的结构性性别偏见表现为症状忽视(如女性疼痛被归因于心理因素)、治疗机会差异(如女性更少获得先进心血管干预)及社会经济资源不平等。
年龄歧视:老年患者面临诊断延迟(症状被归因于“自然衰老”)、医疗资源限制(如肾衰竭风险计算中年轻患者优先)及功能适应性障碍(如听力衰退影响医患沟通)。

测量偏差的代理陷阱

二元性别编码:将性别简化为“男/女”忽略了跨性别者激素治疗、绝经后生理变化或克兰费尔特综合征(Kallmann syndrome)等复杂情况,导致模型无法捕捉真实的生物变异。
时序年龄:以出生年份衡量衰老忽略了表观遗传时钟(DNA methylation)、线粒体功能等多维度生物标志物,无法区分健康衰老与病理状态。

案例研究揭示分配不公

  1. 儿科阑尾炎风险计算器(pARC):男性阑尾炎风险被高估23%,可能导致女性患者诊断延迟;
  2. 肾衰竭风险模型:男性5年风险比女性高7%,60-69岁患者反比50-59岁组风险低7.3%,凸显年龄与性别的矛盾影响;
  3. 心血管疾病(ASCVD)计算器:70岁患者风险比60岁高14.9%,女性比男性低9.4%,可能延误女性他汀类药物治疗;
  4. 肥胖手术死亡率评分(OS-MRS):男性死亡率风险是非男性的4倍,45岁以上女性风险骤增,反映交叉性歧视。

生物伦理与法律风险

公正原则:基于人口统计学变量的资源分配违背公平性,如肌肉量差异应直接测量而非通过性别/年龄推测。
不伤害原则:简化变量导致误诊或治疗不足,如跨性别者激素水平未被纳入心血管风险评估。
法律后果:美国《平价医疗法案》第1557条已禁止种族调整的肾小球滤过率(eGFR),未来性别/年龄调整可能面临类似诉讼。

改进框架与护理教育

修订后的FAIRS框架要求开发者逐步验证:

  1. 人口统计学变量是否必要?
  2. 其预测力源于生物机制还是社会偏见?
  3. 是否加剧现有不平等?
    护理教育需加强模型素养(model literacy),培养对算法开发中偏见的批判性评估能力。

结论

临床算法必须超越简化的人口统计学代理,转向直接测量生物特征(如激素水平、肌肉质量),并控制历史偏见对数据的影响。这一变革需要跨学科合作,以平衡精准医学的潜力与健康公平的伦理责任。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号