谷歌包容性图像竞赛减少了图像分类任务中AI的偏见
2018年12月03日 由 浅浅 发表
352932
0
偏见是
AI中公认的难题,在不具代表性的数据集上训练的模型往往是公平的。但要解决这个问题比你想象的要困难得多,特别是在图像分类任务中,种族,社会偏见经常会出现。
为了解决这个问题,谷歌于9月与神经网络竞争对手合作推出了包容性图像竞赛,该竞赛挑战团队使用Open Images (公开提供的数据集,包含来自北美和欧洲的900张标记的图像),来训练AI系统评估了从世界各地收集的照片。它托管在谷歌的数据科学和机器学习社区门户网站Kaggle上。
谷歌脑研究员Pallavi Baljekar在周一早上的算法公平性演示中给出了最新进展。“图像分类表现在过去几年中已经大幅改善,在某些数据集上几乎超过人类表现”Baljekar说,“但我们想看看模型对真实数据的影响多大。”
在一张照片中,一位白人新娘穿着西式的长裙和长裙,服装、女人、婚礼和新娘等标记出现。然而,另一张新娘的照片,一位亚洲后裔穿着民族服装,标记却是服装、活动和表演艺术等。而更糟糕的是无法识别人。
Baljekar说:“当与典型的西方新娘相去甚远时,模型不太可能产生新娘相关的图像标记。”
原因很简单。Open Images数据集中的很少有照片来自中国,印度和中东。事实上,研究表明,计算机视觉系统容易受到种族偏见的影响。
一个2011年的研究发现,在中国、日本和韩国开发的
人工智能在区分白人面孔方面比东亚人更有困难。2012年进行的另一项研究中,Cognitec公司的人脸识别算法在非洲裔美国人中的表现比识别白人差5%至10%。最近,众议院监督委员会关于
面部识别技术的听证会显示,联邦调查局用于识别犯罪嫌疑人的算法在15%的时间内是错误的。
因此,包容性图像竞赛的目标是激励竞争对手,为数据收集困难的场景开发图像分类器。
为了编译可以评估提交的模型的多样化数据集,Google AI使用了一个应用程序,指示用户拍摄周围的对象并使用设备上的机器学习生成字幕。将字幕转换为动作标签,并通过图像分类器进行验证。第二个验证步骤确保人们在图像中被正确地标记。
在两个竞赛阶段的第一阶段,有400个团队参与,Google AI发布了32,000张来自不同地理位置的不同数据图像,以及来自Open Image数据的标记分布。在第二阶段,谷歌从第一阶段和训练数据集中发布了100,000张具有不同标记和地理位置的图像。
结论是什么?前三名的团队使用了网络和数据增强技术的集成,他们的AI系统在第一阶段和第二阶段都保持了较高的准确性。尽管五分之四的顶尖团队的模型在应用于最初的两张新娘照片时没有预测到新娘的标记,但在照片中识别出了人。
Baljekar说:“即使有一小部分分类数据,我们也可以在不可见的目标分布上提高性能。”
Google AI将在12月7日发布一个包含500,000图像分类
数据集。