在确保人工智能(AI)的道德使用和发展方面,美国、英国和其他十几个国家迈出了重要的一步,根据路透社近期的一份报道,他们推出了一项全面的国际协议,旨在保护AI免受恶意实体潜在滥用的影响。这份周日发布的开创性20页文件,标志着协作努力引导公司创建优先考虑安全和公共安全的 AI 系统。
这份协议虽然不具约束力,但其总体建议具有实质性的分量。它强调监控AI系统以防止潜在滥用的重要性,保护数据完整性,以及彻底审查软件供应商。美国网络安全和基础设施安全局局长Jen Easterly突出了这一集体承诺的重要性。她强调AI的发展应超越纯粹的市场竞争和成本考虑,从一开始就关注安全。
这一倡议是一个更广泛的全球运动的一部分,旨在塑造AI的发展轨迹,认识到它在各个行业中不断增长的影响力。这份协议由包括德国、意大利、捷克共和国在内的18个不同的国家签署。这个多样性的联盟强调了AI安全的普遍相关性和紧迫性。
虽然该框架主要解决黑客劫持AI技术的预防,但它并未深入探讨AI的伦理使用和数据来源等更复杂的问题。AI的兴起引发了广泛的担忧,从其潜在破坏民主进程到加剧欺诈和失业等问题。
欧洲一直处于AI法规的前沿,立法者积极起草规则。法国、德国和意大利之间的最近协议倡导为基础AI模型设立“强制性的自我规范的行为准则”。这些模型至关重要,因为它们是构建各种AI应用程序的基础。
美国也已采取行动减少AI风险,保护消费者、工人、少数族裔和国家安全。今年10月颁布的一项行政命令旨在解决这些问题。
这项新的国际协议代表着全球关于 AI 的讨论中的一个关键时刻。它为未来的合作和法规树立了先例,确保随着AI继续发展和融入我们的日常生活,它将以安全、伦理和公共福利为核心。