欧盟AI专家小组发布完整政策建议,包括敦促各国避免大规模监控
2019年06月27日 由 bie管我叫啥 发表
305302
0
一个独立专家小组公布了其政策和投资建议,它负责建议欧盟委员会通报其对人工智能的监管反应,以巩固欧盟立法者宣称的目标——确保人工智能发展以人为中心。
早在今年4月,高级专家小组(HLEG)就为人工智能制定了值得信赖的道德准则,当时该委员会还呼吁参与者测试规则草案。
AI HLEG的完整政策建议包含一份非常详细的50页文档。该小组成立于2018年6月,由行业AI专家,公民社会代表,政治顾问和政策制定者,学者和法律专家组成。
该文件包括使用人工智能进行大规模监视和对欧盟公民进行信用评分的警告,呼吁彻底禁止人工智能对个人大规模评分。它还敦促各国政府承诺不为国家安全目的对人口进行全面监视。
“虽然通过建立一个基于人工智能系统的普遍监视系统,政府可能会通过它保障社会安全,但如果推到极端水平,这将是极其危险的,”HLEG写道,“各国政府应承诺不对个人进行大规模监视,只部署和采购值得信赖的人工智能系统,旨在尊重法律和基本权利,符合道德原则和社会技术稳健。”
总而言之,独立投资和政策建议报告包括33项建议,旨在使欧洲在全球AI阶段具有竞争力,同时指导创建值得信赖的可持续人工智能系统。
该报告表明,B2B AI技术对欧洲整体而言,可能比目前源自美国和中国科技巨头的消费人工智能更重要。
“欧洲可以通过开发,部署,使用和扩展可信赖的人工智能,将自己与其他国家区分开来。我们认为,可靠的人工智能应该成为欧洲唯一一种能够提高个人和社会福祉的人工智能。”该文件写道。
其他主要建议:
- 密切关注机构和企业的数据收集实践
- 要求在人机交互中对人工智能系统进行自我识别
- 支持应对气候变化的挑战,并举行年度“AI for good”挑战
- 关注在人工智能设计过程中工作受到人工智能影响的工人
- 支持开发人工智能测试系统,让民间社会组织进行独立的质量验证
- 支持所有欧盟公民的基础AI教育课程
- 在政府机构采购之前,为政府人员AI培训提供资金,并评估AI系统的潜在隐私和个人数据风险
- 建立监测机制,以追踪AI对欧洲成员国和整个欧盟的影响
在商业领域,欧盟人工智能专家报告呼吁公司与培训计划建立伙伴关系,教员工如何使用人工智能系统,并表示政府应该为公司创造激励机制,为其员工提供技能培训。该报告还鼓励为创业公司和小型企业提供资金和培训支持,以及额外的InvestEU资金,以支持更多AI公司在欧洲的发展。
除了B2B和B2C,该报告还承认了第三个领域,即P2C,面向公众的服务,为政府使用的人工智能系统建立了一个类别。
报告称,P2C环境,即数字政府,正在迅速崛起,这可能导致政府的角色和结构以及政府与个人和企业的关系之间发生一场革命。
除了欧洲委员会委托的报告外,一些欧洲国家还与美国,澳大利亚,日本和其他几十个国家一起在法国签署了OECD组织的人工智能原则。
文档:
ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence