亚马逊和国家科学基金会投入1000万美元用于AI公平性研究
2019年03月26日 由 深深深海 发表
123266
0
亚马逊希望尽量减少偏见并解决AI中的透明度和问责制问题。为此,它今天宣布将与国家科学基金会(NSF)合作,在未来三年内投入1000万美元的研究经费,开发专注于AI和机器学习公平性的系统。
Alexa AI小组自然理解副总裁Prem Natarajan写道,“随着AI在日常生活中的使用越来越多,AI的公平性在学术界,政府和各行业中越来越重要,在亚马逊,我们为支持业务而建立的机器学习系统的公平性对于建立和维护客户的信任至关重要。”
亚马逊与NSF的合作伙伴关系将专门针对可解释性,潜在的不利偏见和影响,缓解策略,公平性验证以及包容性考虑,旨在实现AI系统更广泛的接受性,并允许美国进一步利用AI技术的潜力。这两个组织希望从今天开始接受提议,到5月10日为止,从而产生新的开源工具、公开可用的数据集和出版物。
亚马逊将为该计划提供部分资金,NSF根据其绩效评估流程独立做出决定。该计划预计将在2020年和2021年继续实施,并附加征集意向书。
“我们很高兴宣布与亚马逊的新合作,对AI的公平性进行研究,”美国国家科学基金会计算机和信息科学与工程负责人Jim Kurose表示,“该计划将支持与可信赖的AI系统的开发和实施相关的研究,这些系统从一开始就将透明度,公平性和责任性纳入设计中。”
亚马逊加入了越来越多从事道德AI研究的公司,学术机构和行业联盟。他们已经开发了缓解算法偏见的工具,这些工具有望加速开发更公正的模型。
值得注意的是,之前来自麻省理工学院的研究人员发表的一项研究发现,Rekognition的对象检测API无法在特定场景下可靠地确定女性性别以及深色皮肤的面孔。研究报告的合著者称,在2018年进行的实验中,Rekognition面部分析功能错误识别男性和女性照片的几率分别为19%和31%。
亚马逊对这些调查结果提出异议,并且仍然存在争议。它在内部表示,在Rekognition更新版本的测试中,它发现所有种族的性别分类准确性并无差异。并且它认为提出质疑的论文未能明确实验中使用的置信度。