随着AI在GenAI中蓬勃发展,这些技术的创造者需要某种数字希波克拉底誓言。 虽然AI中的道德最近已成为讨论的主题,但全球的道德学家几十年来一直在探索这个主题,并提出了构建技术的框架。
我们精心挑选了七个道德AI框架,供开发人员将道德纳入他们的技术创新中。
负责任的技术手册
在2021年,Thoughtworks员工编制了一份目录,用于了解他们的工作的道德含义,他们将其发布为《负责任的技术手册》。这个50页的框架强调了三种技术,征求不同的观点,识别和解决道德挑战,确保技术的设计符合人们的需求并支持他们的价值观。
PiE模型
由AI Ethics Lab的创始人Cansu Canca开发,PiE模型是一种将道德融入AI创新周期的模型,通过咨询AI Ethics Lab来实施。这个模型于2018年推出,以系统的方式关注核心问题:“做正确的事是什么?”在创新的每一步中,它都融合了道德分析和解决方案。
Alethia框架
在2020年,劳斯莱斯(Rolls Royce)发布了一份全面指南,以公平、道德和可信的方式审查和平衡他们的AI项目。该公司表示,这实际上是一份供企业考虑使用AI的影响之前是否继续进行的检查清单。
该文件涵盖了社会影响,治理和信任以及透明度的32个方面,并要求高管和董事提供证据证明这些方面已经经过严格考虑。该公司在2021年后发布了更新版本。
NIST AI风险管理框架
该框架指导政府机构和私营部门管理新的AI风险并促进负责任的AI。由于AI具有通用性,因此制定信息技术风险管理措施具有挑战性。该框架通过“社会技术”维度引入了一种方法。专家们指出了该框架的深度,特别是它在不同组织背景中实施控制和政策以更好地管理AI系统方面的具体性。
通过ENISA保护机器学习算法
欧盟网络与信息安全局(ENISA)在2021年12月发布了一份针对机器学习算法安全性的框架。该报告主要关注识别与这项技术相关的潜在风险和弱点。
此外,报告还建议一系列安全措施,以提升机器学习驱动系统的网络安全。报告中指出的一个挑战是在实施安全控制的同时保持这些系统预期性能水平之间的微妙平衡。
道德操作系统框架
Omidyar Network与未来学研究所(Institute for the Future,IFTF)合作,在2018年发布了《道德操作系统》工具包,试图解决作为技术不良后果而出现的大问题的挑战。这是一个分为三部分的工具包,旨在帮助技术人员了解技术可能如何被损害,并建立针对未来风险的安全保障。
大型科技公司与社会可持续性:道德框架
Bernard Arogyaswamy在2020年撰写的论文认为可持续性由经济、社会和生态三种力量之间的张力构成。
该框架建议公司应该有明确的规定来判断对什么是对什么是错,并且执行这些规定的人具有足够的权力。它强调了道德标准、社会影响以及用户在使用大型科技时的思考,以便长期以及遵循道德原则地进行。