OpenAI饱受安全问题的困扰

2024年07月15日 由 samoyed 发表 207 0

OpenAI在开发智能程度与人类相当的 AI 的竞赛中处于领先地位。然而,员工们仍不断在媒体和播客上发声,表达他们对这家价值 800 亿美元的非营利性研究实验室安全问题的深切担忧。最新的一则报道来自《华盛顿邮报》,其中一位匿名人士声称 OpenAI 在确保产品安全之前就匆忙进行了安全测试并庆祝了产品的发布。


acastro_210512_1777_deepfake_0003


“他们在确定产品是否安全之前就计划好了发布后的庆祝活动,”一位匿名员工告诉《华盛顿邮报》。“我们基本上在流程上失败了。”


安全问题在 OpenAI 显得尤为突出,并且似乎层出不穷。就在不久之前,OpenAI 的安全团队在联合创始人伊利亚·苏特斯科韦尔(Ilya Sutskever)离职后被解散后,OpenAI 的现任和前任员工签署了一封公开信,要求这家初创公司采取更好的安全和透明实践。OpenAI 的关键研究员扬·莱克(Jan Leike)随后辞职,并在一篇文章中声称,“在 OpenAI,安全文化和流程已经让位于光鲜亮丽的产品”。


安全是 OpenAI 章程的核心,其中有一条条款声称,如果竞争对手实现了通用人工智能(AGI),OpenAI 将协助其他组织推进安全,而不是继续与之竞争。OpenAI 声称致力于解决这样一个庞大、复杂系统所固有的安全问题。为了安全起见,OpenAI 甚至将其专有模型保密,而不是公开(这引起了讥讽和诉讼)。然而,这些警告听起来似乎表明,尽管安全对公司的文化和结构至关重要,但却被置于次要地位。


“我们为我们提供最具能力和最安全的AI系统的业绩记录感到自豪,并且我们坚信我们解决风险的科学方法,”OpenAI发言人Taya Christianson表示。“鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与全球各地的政府、民间社会和其他社区合作,以实现我们的使命。”


OpenAI和其他研究新兴技术的人指出,围绕安全性的利害关系非常巨大。“当前最前沿的人工智能开发对国家安全构成了紧迫且日益增长的风险,”美国国务院3月份委托的一份报告指出。“先进人工智能和通用人工智能(AGI)的兴起有可能以类似于核武器出现的方式破坏全球安全。”


OpenAI的警钟也伴随着去年董事会的一场政变,当时首席执行官萨姆·奥特曼(Sam Altman)被短暂罢免。董事会表示,他被罢免的原因是“在沟通中未能保持一贯的坦率”,这导致了一次未能让员工安心的调查。


OpenAI发言人林赛·赫尔德(Lindsey Held)告诉《华盛顿邮报》,GPT-4o的发布在安全性上“没有偷工减料”,但另一名匿名的公司代表承认,安全审查的时间表被压缩到了一周。“我们正在重新考虑我们的整个做法,”这位匿名代表告诉《华盛顿邮报》。“这(压缩时间)绝对不是最好的做法。”


面对层出不穷的争议,OpenAI试图通过几次适时的宣布来平息人们的担忧。上周,它宣布将与美国洛斯阿拉莫斯国家实验室合作,探索如何安全地使用GPT-4o等先进AI模型辅助生物科学研究,并在同一份公告中反复提及洛斯阿拉莫斯的安全记录。第二天,一位匿名发言人告诉彭博社,OpenAI创建了一个内部标准,以跟踪其大型语言模型在向通用人工智能(AGI)迈进方面的进展。


OpenAI发布的以安全为重点的公告,似乎是在面对对其安全实践日益增长的批评时,所采取的防御性“门面装饰”。很明显,OpenAI正处于风口浪尖——但仅靠公关努力是不足以保护社会的。真正重要的是,如果OpenAI继续未能以严格的安全协议开发AI,那么这将对硅谷以外的人产生什么潜在影响:普通人无法参与私有化AGI的开发,但在面对OpenAI的创造物时,他们别无选择,只能接受保护程度的不确定性。


“AI工具可能是革命性的,”联邦贸易委员会(FTC)主席莉娜·汗(Lina Khan)去年11月告诉彭博社。但“就目前而言”,她表示,存在这样的担忧:“这些工具的关键输入由相对较少的几家公司控制。”


如果针对其安全协议的众多指控属实,这无疑对OpenAI作为AGI守护者的资格提出了严重质疑,而这一角色基本上是OpenAI自己赋予自己的。让旧金山的一个组织控制可能改变社会的技术,这令人担忧,而且在其内部,对透明度和安全性的迫切需求比以往任何时候都更加强烈。


文章来源:https://www.theverge.com/2024/7/12/24197142/openai-safety-concerns-agi
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消