隐私组织呼吁美国政府采用AI通用指南,保障AI的安全使用
2018年10月30日 由 浅浅 发表
379520
0
上周在布鲁塞尔举行的一次会议上公布的12则通用指南,旨在降低风险的同时最大化利益,改进AI的设计和使用。AI多年来一直是基于机器决策的术语,但随着技术被更广泛采用,基于AI的结果对人类生活产生了更大的影响。
但通常这些决策都是通过专有和封闭算法做出的,因此几乎不可能知道决策是否公平或合理。
根据电子隐私信息中心(EPIC)的规定,这些指南旨在融入AI,以确保对人权的保护。这包括了解决策结果所使用的因素,逻辑和技术的权利;消除歧视性决策的公平义务;并有义务确保系统免受网络安全威胁。
现在,EPIC希望将这些原则引入美国,在致美国国家科学基金会的一封信中,EPIC呼吁这个政府机构采用通用指南,几个月后,它就国家AI政策提出了建议。
“通过投资努力满足普遍原则的AI系统,美国国家科学基金会可以从一开始就促进准确,透明和负责任的系统的开发,”EPIC总裁兼执行董事Marc Rotenberg写道,“道德开发,实施和维护的AI系统比那些不规范的系统花费更多,值得投资和研究。”
EPIC表示,这12项原则完全符合美国迄今已制定的七项战略,使其采用的案例更加容易。超过200名专家和50个组织签署了该指南,包括美国联邦科学家和政府问责项目。
随着政府对信息的要求现已结束,在政府决定下一步将会采取什么措施(如果有的话)之前,可能需要更长时间。这不是由美国国家科学基金会来决定,而可能是白宫的科技政策办公室。白宫发言人目前还没有回应。
以下是指南的内容:
- 透明权。所有个人都有权知道与他们有关的AI决定的基础。这包括访问产生结果的因素,逻辑和技术。
- 人类决心权。所有人都有权做出最终决定。
- 识别义务。负责AI系统的机构必须向公众公布。
- 公平义务。机构必须确保AI系统不反映不公平的偏见或做出歧视性决定。
- 评估和责任义务。只有在充分评估其目的和目标,利益及风险后,才应部署AI系统。机构必须对AI系统的决策负责。
- 准确性,可靠性和有效性义务。机构必须确保决策的准确性,可靠性和有效性。
- 数据质量义务。机构必须建立数据来源,并确保数据输入算法的质量和相关性。
- 公共安全义务。机构必须评估部署指导或控制物理设备的AI系统所产生的公共安全风险,并实施安全控制。
- 网络安全义务。机构必须确保AI系统免受网络安全威胁。
- 禁止秘密剖析。任何机构都不得建立或维护秘密的剖析系统。
- 禁止统一评分。任何国家政府都不得对其公民或居民建立或维持通用评分。
- 终止义务。如果不再可能对系统进行人为控制,建立AI系统的机构有义务终止系统。