近期《金融时报》报道称,微软、OpenAI、谷歌和Anthropic本周宣布任命Chris Meserole为他们的新工业联盟“前沿模型论坛”的执行董事。这四家科技巨头成立的论坛旨在填补全球人工智能监管的“空白”。
近年来,人工智能发展迅速,如ChatGPT等系统展示了流利对话和生成原创文本等能力。然而,人工智能的日益复杂性引发了人们对潜在危险的担忧。
先进的人工智能系统使用大型语言模型来处理海量数据集以生成细致入微的输出。然而,这些模型的复杂性使得它们的内部运作不透明,存在意想不到的行为风险。
Meserole告诉《金融时报》说:“距离实际出台监管措施还有一段时间。”他目前将从华盛顿智库的人工智能主管职位中辞职。“在此期间,我们希望确保这些系统构建得尽可能安全。”
论坛将专注于人工智能的风险,例如人工智能可能有助于设计生物武器或生成恶意计算机代码,从而可能导致黑客攻击。
这个联盟已承诺向人工智能安全基金投入1000万美元,得到前谷歌CEOEric Schmidt的支持,该基金将资助针对“红队测试”等技术的学术研究。红队测试指的是研究人员在实际部署之前系统地测试人工智能系统的缺陷、漏洞和危险性的方法。
除了资助研究,该论坛还计划制定自己的技术风险评估标准和人工智能系统评估准则。Meserole表示,随着各国政府开始监管这项技术,建立全球标准将在各个司法管辖区提供一致性。该论坛的工作旨在为未来的政府监管提供补充。
这一论坛的宣布恰逢下周全球人工智能安全峰会之前。随着欧盟的全面人工智能法案预计最早在明年初完成,并且全球各国政府呼吁出台立法,科技公司正努力在现在为人工智能建立道德准则和安全实践方面发挥引领作用。目标是塑造即将到来的监管环境,避免可能出现的限制性政策。