
-
生物通官微
陪你抓住生命科技
跳动的脉搏
综述:重新审视临床算法中种族、性别和年龄的使用以解决实践中的偏见:一篇讨论论文
【字体: 大 中 小 】 时间:2025年07月08日 来源:International Journal of Nursing Studies Advances 3.1
编辑推荐:
这篇讨论论文深入探讨了临床风险计算器(risk calculators)中纳入人口统计学变量(如种族、性别、年龄)的伦理与科学争议,通过机器学习生命周期框架揭示了历史偏见(historical bias)、测量偏差(measurement bias)和部署偏差(deployment bias)如何导致表征性伤害(representational harm)和分配性伤害(allocative harm),并提出了修订后的算法评估框架(FAIRS扩展版),呼吁临床工作者摒弃简化的人口统计学代理变量,直接测量生物机制以遵循公正(justice)与不伤害(non-maleficence)的生物伦理原则。
临床算法作为决策支持工具,通过整合患者特异性特征预测健康结局,其中风险计算器(risk calculators)尤其常用于基于风险评估的医疗资源分配。尽管这些工具通常依赖生理数据,但种族、性别和年龄等人口统计学变量常被纳入模型。近年来,种族变量的使用因简化生物差异、加剧服务分配不公而备受质疑,但性别和年龄的潜在危害却鲜少被讨论。
借鉴Suresh和Guttag的机器学习生命周期框架,算法偏见可分为三类:
性别歧视:医疗系统中的结构性性别偏见表现为症状忽视(如女性疼痛被归因于心理因素)、治疗机会差异(如女性更少获得先进心血管干预)及社会经济资源不平等。
年龄歧视:老年患者面临诊断延迟(症状被归因于“自然衰老”)、医疗资源限制(如肾衰竭风险计算中年轻患者优先)及功能适应性障碍(如听力衰退影响医患沟通)。
二元性别编码:将性别简化为“男/女”忽略了跨性别者激素治疗、绝经后生理变化或克兰费尔特综合征(Kallmann syndrome)等复杂情况,导致模型无法捕捉真实的生物变异。
时序年龄:以出生年份衡量衰老忽略了表观遗传时钟(DNA methylation)、线粒体功能等多维度生物标志物,无法区分健康衰老与病理状态。
公正原则:基于人口统计学变量的资源分配违背公平性,如肌肉量差异应直接测量而非通过性别/年龄推测。
不伤害原则:简化变量导致误诊或治疗不足,如跨性别者激素水平未被纳入心血管风险评估。
法律后果:美国《平价医疗法案》第1557条已禁止种族调整的肾小球滤过率(eGFR),未来性别/年龄调整可能面临类似诉讼。
修订后的FAIRS框架要求开发者逐步验证:
临床算法必须超越简化的人口统计学代理,转向直接测量生物特征(如激素水平、肌肉质量),并控制历史偏见对数据的影响。这一变革需要跨学科合作,以平衡精准医学的潜力与健康公平的伦理责任。
生物通微信公众号
知名企业招聘