MIT开发新方法,减少AI偏见,同时不会降低预测结果准确性
2018年11月19日 由 浅浅 发表
534654
0
AI偏见导致社交媒体中部署的预测模型在搜索结果或用户体验方面表现不佳,但当AI用于医疗保健,自动驾驶汽车,刑事司法或预测性警务策略等事件时,它可能会对人的生命产生严重的负面影响。在这个几乎所有行业都会部署AI的时代,这可能导致持续的系统偏差。
现在,麻省理工学院计算机科学人工智能实验室(CSAIL)研究人员开发了一种减少AI偏见的方法,同时又不降低预测结果的准确性。
麻省理工学院教授David Sontag表示:“我们认为这是一个工具箱,可帮助机器学习工程师弄清楚对于数据要提出什么问题,以便诊断系统为什么会做出不公平的预测。”这篇论文由Sontag和博士生Irene Chen以及博士后助理Fredrik D. Johansson共同撰写。
Sontag说,关键是从代表性不足的群体中获取更多数据。例如,研究人员发现,在一个案例中,AI模型将女性标记为低收入比把男性标记为高收入的可能性高两倍。通过将数据集中女性的代表性提高10倍,不准确结果的数量减少了40%。
传统方法可能建议将与多数人群相关的数据集随机化,作为解决不同人群不公平结果的一种方法,但这种方法可能意味着权衡较低的预测准确性,以实现所有人群的公平性。
团队表示,“在这项工作中,我们认为预测的公平性应该在数据的背景下进行评估,并且样本量不足或未测量的预测变量引起的不公平性应该通过数据收集来解决,而不是通过约束模型来解决,”论文题目为“为什么我的分类器带有偏见”。
预测准确性的差异有时可以通过缺乏数据或不可预测的结果来解释。研究人员建议在进行公平标准评论之前,对模型偏差,模型方差和结果噪声进行AI模型分析。
团队表示,“这揭示并分离了数据收集不足和模型选择对公平性的不利影响。公平的代价并不一定总是预测准确性,而是数据收集和模型开发的投资。在高风险的应用程序中,其收益往往超过成本。”
一旦进行了这些评估,这组研究人员提出了评估收集额外训练样本的影响的程序,然后对数据进行聚类,以确定得到不相等结果的亚群,以指导额外的变量收集。结果将于下个月在NIPS上公布。
由于人们越来越担心AI产生的偏见会产生影响人类生活的不准确结果,因此许多公司引入了许多工具和方法:今年春天,创业公司Pymetrics开放了其偏见检测工具Audit AI,而在9月,IBM推出了算法偏见检测云服务,谷歌通过假设工具和TensorBoard引入了AI偏见可视化。