谷歌发布AI开发原则,承诺其AI不会用于军事武器,但仍继续与军方和政府合作
2018年06月08日 由 浅浅 发表
560070
0
谷歌今天发布了AI原则,其中包括禁止制造自动武器和对人有害的AI应用程序。在数千名员工发起抗议,谷歌宣布不会续签与美国国防部合作分析无人机影像的合同之后,这一原则终于出炉。
首席执行官Sundar Pichai在一篇博文中阐述了创建AI时应该考虑的原则,以及谷歌不会开发的AI应用。除了禁止设计自主武器之外,公司还将设法避免有害的AI应用,以及违反国际公认准则的监视收集或使用信息的技术。
Pichai称,谷歌开发的AI应该坚持科学卓越标准,对人员负责,进行安全测试,避免加强偏见。
原则内容
AI应用程序的目标
1.对社会有益。
2.避免制造或加强不公平的偏见。
3.建立并测试安全性。
4.对人负责。
5.纳入隐私设计原则。
6.坚持科学卓越的高标准。
7.提供符合以下原则的用途。
- 主要目的和用途:技术和应用的主要目的和可能的用途,包括解决方案与有害使用有关或适用于有害使用
- 自然和独特:我们是否提供独特或更普遍可用的技术
- 规模:这种技术的使用是否会产生重大影响
- Google参与的性质:我们是否提供通用工具,为客户集成工具还是开发定制解决方案
我们不会在以下应用领域设计或部署AI:
1.导致或可能造成整体伤害的技术。在存在重大伤害风险的情况下,我们只会在我们认为收益大大超过风险的情况下进行,并且会纳入适当的安全限制。
2.其主要目的或实施导致或直接促进人身伤害的武器或其他技术。
3.收集或使用信息进行监视的技术违反国际公认的规范。
4.技术的目的违反了被广泛接受的国际法和人权原则。
我们希望明确的是,虽然我们没有开发用于武器的AI,但我们将继续与政府和军队在许多其他领域开展合作。这些领域包括网络安全,培训,军人招募,退伍军人医疗保健和搜救。这些合作非常重要,我们将积极寻找更多方法来加强这些组织的关键工作,并保持服务人员和平民的安全。
争议
谷歌表示,它不会将人工智能用于军事目的,也不会使用人工智能来进行武器或监视,以此侵犯人权。但它将继续与政府和军队合作,Pichai没有提到Maven计划或员工的压力。目前尚不清楚这些指导方针是否会阻碍谷歌追求Maven合同,因为该公司一再坚持认为其在五角大楼的工作不是出于攻击性目的。
此外,与大多数顶尖的企业人工智能实验室一样,Google也公开发布大部分人工智能研究。这意味着其他人可以重新创建和利用其方法和想法,有可能会导致技术滥用。