机器学习可以是公平和准确的

【字体: 时间:2021年10月21日 来源:Nature Machine Intelligence

编辑推荐:

  最近发表在《自然机器智能》(Nature Machine Intelligence)杂志上的一项新研究旨在消除这种假设。Rayid Ghani,计算机科学学院机器学习系(MLD)和亨氏信息系统和公共政策学院的教授;MLD的研究科学家Kit Rodolfa;南加州大学的博士后研究员Hemank Lamba在现实世界的应用中测试了这一假设,发现在一系列政策领域的实践中,这种权衡是可以忽略不计的。

  

卡内基梅隆大学(Carnegie Mellon University)的研究人员正在挑战一个长期存在的假设,即在使用机器学习做出公共政策决策时,准确性和公平性之间存在权衡。

随着机器学习在刑事司法、招聘、医疗服务提供和社会服务干预等领域的使用增加,人们越来越担心,这类应用是否会带来新的不平等或放大现有的不平等,尤其是在少数族裔和经济弱势人群中。为了防止这种偏差,我们对数据、标签、模型训练、评分系统和机器学习系统的其他方面进行了调整。潜在的理论假设是,这些调整会降低系统的准确性。

最近发表在《自然机器智能》(Nature Machine Intelligence)杂志上的一项新研究旨在消除这种假设。Rayid Ghani,计算机科学学院机器学习系(MLD)和亨氏信息系统和公共政策学院的教授;MLD的研究科学家Kit Rodolfa;南加州大学的博士后研究员Hemank Lamba在现实世界的应用中测试了这一假设,发现在一系列政策领域的实践中,这种权衡是可以忽略不计的。

“实际上你可以两者兼得。你不必牺牲准确性来构建公平合理的系统,”Ghani说。“但它确实要求你有意地设计出公平合理的系统。现成的系统是行不通的。”

Ghani和Rodolfa专注于需求资源有限的情况,并使用机器学习系统来帮助分配这些资源。研究人员从四个方面考察了系统:根据一个人重返监狱的风险,优先考虑有限的精神卫生保健服务,以减少再监禁;预测严重的安全违规行为,以便更好地部署城市有限的住房检查员;建立学生未能及时从高中毕业的风险模型,以识别最需要额外支持的学生;并帮助教师达到课堂需求的众筹目标。

在每一种情况下,研究人员都发现,为精度而优化的模型——机器学习的标准实践——可以有效地预测感兴趣的结果,但在建议干预方面表现出相当大的差异。然而,当研究人员对模型的输出进行调整,以提高模型的公平性时,他们发现,基于种族、年龄或收入的差异——取决于具体情况——可以在不降低准确性的情况下被消除。

Ghani和Rodolfa希望这项研究将开始改变其他研究人员和政策制定者的想法,因为他们考虑在决策中使用机器学习。

Rodolfa说:“我们希望人工智能、计算机科学和机器学习领域停止接受这种在准确性和公平性之间权衡的假设,并开始有意识地设计能够最大化两者的系统。”“我们希望决策者将机器学习作为决策工具,帮助他们实现公平的结果。”

###


杂志

自然机器智能

DOI

10.1038 / s42256 - 021 - 00396 - x

文章标题

公共政策机器学习中可忽略的公平性-准确性权衡的经验观察

文章出版日期

10月14 - - 2021

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

热搜:机器学习|

  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号