200名人工智能研究人员呼吁AI公司引入安全测试

2024年03月07日 由 samoyed 发表 256 0

200多名世界领先的人工智能研究人员签署了一封公开信,呼吁OpenAI、Meta和谷歌等人工智能领域的大公司允许外部专家独立评估和测试其人工智能模型和系统的安全性。


这封信认为,科技公司为防止滥用或滥用其人工智能工具而制定的严格规则正在产生意想不到的后果,扼杀审计这些系统潜在风险和漏洞的关键独立研究。


j0wJSoglTLGuO-L-vXN8Vw-825x500


著名的签名者包括斯坦福大学的Percy Liang、普利策获奖记者Julia Angwin、斯坦福互联网观察站的Renée DiResta、人工智能伦理研究员Deb Raji和前政府顾问Suresh Venkatasubramanian。


人工智能研究人员关心什么?


研究人员表示,人工智能公司禁止某些类型测试、禁止侵犯版权、生成误导性内容或其他滥用行为的政策应用范围过于广泛。这造成了一种“寒蝉效应”,审计师担心,如果他们在未经明确批准的情况下突破界限对人工智能模型进行压力测试,他们的账户将被禁止,或面临法律后果。


信中写道:“生成式人工智能公司应避免重蹈社交媒体平台的覆辙,许多社交媒体平台已经有效禁止了想要追究其责任的研究。”


这封信出现在日益紧张的局势中,人工智能公司如OpenAI声称《纽约时报》对ChatGPT的版权问题调查等同于“黑客行为”。Meta更新了条款,威胁称如果其最新的语言模型被用于侵犯知识产权,将撤销相关授权。


研究人员认为,公司应提供一个“安全避风港”,允许负责任的审计,以及建立直接渠道,以便在测试期间发现潜在漏洞时能够负责任地报告,而不是被迫在社交媒体上发布“抓现行”的消息。


“我们的监管体系已经支离破碎,”人工智能风险与漏洞联盟的Borhane Blili-Hamelin说。“当然,人们会发现问题。但唯一能产生影响的渠道就是这些‘抓现行’的时刻,即你抓住了公司漏洞的时刻。”


这封信以及附带的政策建议旨在营造一个更协作的环境,让外部研究人员能够评估影响数百万消费者的AI系统的安全性和潜在风险。


文章来源:https://readwrite.com/ai-researchers-urge-openai-google-meta-safety-checks/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消