欧盟人工智能法案对美国意味着什么
2023年07月26日 由 Susan 发表
71592
0
欧盟《人工智能法》将成为全球首个全面的人工智能法律框架。这一总体方针政策最初由欧盟委员会在2021年4月提出,欧洲理事会去年通过了这一方针,欧洲议会也在6月中旬通过了这一立场。现在,三方就该政策成为法律之前,进行最终细节协商谈判——这个过程被称为三方谈判。在达成最后协议后,该法律可能在未来几年内生效。
斯坦福人工智能与人类智能研究所(Stanford HAI)召集了人工智能、法律和政策方面的专家,探讨了管理条例的细节、三个欧盟机构之间可能仍在协商的方面、还有一些缺失的地方,以及科技公司有多大可能能够遵循该条例。以下是他们的讨论亮点,由斯坦福HAI的国际政策研究员、斯坦福网络政策中心的国际政策总监Marietje Schaake主持,她曾任欧洲议会议员。您可以在这里观看完整的专家讨论。
立法机构之间可能存在分歧的领域在哪里?
Dragoř Tudorache 是欧洲议会议员,也是代表公民自由委员会担任欧洲议会人工智能法案联合报告员。他还担任数字时代人工智能特别委员会主席。欧洲议会议员Parliament强调了强烈的政治结盟意识。然而,他预计在三重奏期间会出现几个领域。
1.人工智能用于公共场所的生物识别监控。议会出台了限制执法使用的禁令,这些禁令可能会遭到成员国政府在议会中的反对。
2.高风险人工智能的定义。议会允许对高风险人工智能的用例进行更广泛的定义,而理事会则更愿意缩小该定义。
3.统辖。除其他事项外,三方将需要讨论各国在实施和执行方面的孤岛以及协调水平。
他指出,其他分歧领域包括生成式人工智能的监管以及部署后高风险应用的评估。 Alex Engler是布鲁金斯学会治理研究部的研究员,专注于人工智能和新兴数据技术对社会和治理的影响。他补充说,还将进行更多技术问题的讨论:哪种类型的机构将受到监管,现有机构是否应该监管其自身的专业知识(例如,教育机构处理教育算法),或者是否应该成立一个中央组织?他说,这些技术问题将需要“首先解决,因为它们是该法律的核心功能。”
公司遵守拟议法规的程度有多大?
Rishi Bommasani是斯坦福HAI基于基础模型的研究中心的社会领导者,他还是计算机科学博士候选人,研究了OpenAI、DeepMind和Anthropic等基础模型提供商如何遵守草案法案。
他们未达到标准的领域包括未提供用于训练模型的受版权保护数据的摘要,能源使用的不均衡报告,风险缓解的披露不足以及缺乏评估标准或审计程序。采取开源方法的基础模型开发者在资源披露要求方面往往表现更好;而闭源或受限制的模型在部署相关要求方面表现更好。
科技公司需要政策制定者提供什么才能遵守?
公司需要在三个方面进一步澄清,Hugging Face的政策总监Irene Solaiman说,她进行社会影响研究并领导公共政策。
1.透明度:立法者必须定义透明度的法律要求以及如何记录数据集、模型和流程。
2.模型访问:无论模型是开源还是闭源,研究人员都需要访问系统来进行评估和构建保护措施。
3.影响评估:研究界目前还没有评估的标准。没有很好的方法来有力地评估语言模型的一个方面的偏见。
欧盟的计划将如何影响美国?
"美国和欧盟在监管人工智能方面的方法之间存在日益加剧的差异," Engler表示。欧盟已经就数据隐私、在线平台和在线电子商务等领域的法规向前迈进,而美国则没有类似的立法。
他警告说,欧盟法案的通过将使美国更难通过自己的法律——企业不希望在两个不同的市场面临两套不同的规则。"如果在线平台存在两种截然不同的标准,企业利益将拼命斗争。"
Engler建议美国立法者了解欧盟法案,并寻找可以达成一致的标准,确保法律易于实施。
Tudorache补充说,他注意到来自华盛顿特区政策制定者对监管的兴趣正在增强,补充道:"如果我们在标准上保持一致,如果我们在原则上保持一致,即使在立法细节上存在分歧,我认为我们有很好的机会在美国和欧盟之间实现趋同。"
来源:https://techxplore.com/news/2023-07-european-union-ai.html