IBM宣布推出云服务将帮助企业检测和减轻AI算法偏见
2018年09月20日 由 浅浅 发表
736506
0
偏见是AI中的一个严重问题。根据IBM最近委托进行的一项研究,由于潜在的责任问题,三分之二的企业对采用AI持谨慎态度。
为了帮助企业解决这一问题,IBM今天宣布推出基于云的全自动服务,该服务“不断为AI系统制定决策提供洞察力”。它还会扫描偏见的迹象,并建议调整,例如算法调整或平衡数据,这可能会减少偏见的影响。
该服务解释了哪些因素影响了给定的机器学习模型的决策,以及它的整体准确性,性能,公平性。此外,它使人们对其减轻偏见的建议以及任何促成这种信心的因素充满信心。
IBM表示,它适用于流行的机器学习框架和AI构建环境,包括IBM Watson,Tensorflow,SparkML,AWS SageMaker和AzureML,并且可以根据各个企业的工作流程进行定制。
IBM在认知解决方案高级副总裁David Kenny表示:“IBM在为新的AI技术开发建立信任和透明度原则方面处于行业领先地位。现在是将原则付诸实践的时候了。我们正在为使用AI的企业提供新的透明度和控制权,并面临任何有缺陷的决策带来的最大潜在风险。”
除了宣布此消息之外,IBM还在开源软件中推出了一个工具包:AI Fairness 360工具包,包含一个算法,代码和教程库,演示了在模型中实现偏差检测的方法。
在白皮书发布一个月之后,IBM公司采取了一些措施,其中一些研究人员为AI系统提出了“情况说明”。自愿性情况说明书,正式名称为“供应商符合性声明”(DoC),回答有关系统操作和培训数据,基础算法,测试设置和结果等问题。更细致的主题可能包括用于跟踪AI服务的数据工作流的治理策略,测试中使用的方法以及对数据集执行的偏差缓解。
“就像食品的营养标签或家用电器的信息表一样,AI服务的情况说明书将提供有关产品重要特征的信息,”IBM研究院AI基金会负责人兼AI Science for Social Good计划的联合主任Aleksandra Mojsilovic写道,“AI的信任问题是IBM和许多其他技术开发商和提供商的首要考虑因素。AI系统具有改变我们生活和工作方式的巨大潜力,但也存在一些漏洞,例如暴露于偏见,缺乏可解释性以及易受敌对攻击。必须解决这些问题才能使AI服务受到信任。”
IBM并不是唯一一个开发减少算法偏见的平台。在5月举行的F8开发者大会上,Facebook宣布了Fairness Flow,这是一项针对数据科学家的自动化偏向捕获服务。微软和埃森哲也已经发布了类似的工具。