非营利组织EqualAI公开发布了关于在AI领域确立11项负责任和道德原则的最佳实践报告。EqualAI将负责任的AI定义为“对所有可能的最终用户来说安全、包容和有效”。这些原则包括隐私、透明度和鲁棒性。
来自Google DeepMind、微软、Salesforce、亚马逊网络服务、Verizon、SAS研究所、百事可乐、客户互动公司LivePerson以及航空航天和国防公司Northrop Grumman的高管共同撰写了该报告。
该报告没有具体指定生成式AI,而是涵盖了目前正在构建、采购和集成的所有“复杂AI系统”。
什么是EqualAI负责任AI治理框架?
EqualAI负责任AI治理框架包括以下11个原则:
它还包括以下六个核心支柱:
该框架基于EqualAI的负责任AI标志计划,这是一项认证项目,旨在帮助企业领导者减少AI中的偏见。
EqualAI的总裁兼首席执行官Miriam Vogel在新闻稿中表示:“在EqualAI,我们发现在AI原则上达成一致可以使组织能够通过制定规则和标准来指导与AI开发和使用相关的决策,从而将其价值观具体化。”
组织可以采取哪些步骤来创建有效的负责任AI战略?
根据报告,采用有效的负责任AI战略的关键步骤包括:
一个组织的负责任AI框架可以根据其现有的公司价值观和对AI的使用进行定制。目标不是达到“零风险”,这是不可能的;相反,公司应该努力创建一种负责任AI治理的文化。绩效认可、薪酬和晋升激励可以与AI风险缓解措施相关联。
为什么负责任的AI治理很重要?
EqualAI表示,投资于负责任的AI实践对业务和人类都有好处。EqualAI引用了思科公司在2023年1月进行的一项研究,该研究发现60%的消费者对组织如何应用和使用AI表示担忧(没有具体指定生成式AI)。思科公司还发现,65%的消费者因为AI实践而失去了对组织的信任。
该报告指出:“在调查了他们特定的AI领域和视野之后,现在是时候制定与组织价值观相一致的AI原则,并建立基础设施和流程……以支持这些价值观并确保它们不会受到AI使用的阻碍”。