OpenAI调整战略以应对安全高管离职后的挑战

2024年05月20日 由 neo 发表 153 0

在OpenAI的联合创始人兼首席科学家Ilya Sutskever和Jan Leike离职后,该公司正积极调整战略,以缓解因核心安全团队变动带来的潜在影响。这两位科学家曾领导公司的“超级对齐团队”,该团队专注于确保未来先进人工智能(AI)系统的安全性。

OpenAI-safety

据公司内部消息,尽管Sutskever的离职是出于个人对其他项目的追求,但Leike在社交媒体上发表声明,指出他与OpenAI领导层在公司安全策略,尤其是人工通用智能(AGI)的优先级上存在分歧。Leike强调,公司应更加重视AGI的安全影响,并将其作为未来发展的核心。

针对这一变化,OpenAI的首席执行官Sam Altman和总裁Greg Brockman迅速作出回应,他们在社交媒体上联合发表声明,表示公司充分认识到AGI的潜在风险与机遇,并已着手制定一系列安全策略。他们强调,OpenAI一直在致力于建立强大的安全基础,以确保其AI系统的安全部署。

此外,OpenAI还任命了专注于大型语言模型的联合创始人John Schulman为新的科学负责人,负责组织和指导公司的安全对齐工作。这一举措旨在确保公司在追求技术创新的同时,能够维持对AI系统安全性的高度关注。

尽管超级对齐团队的其他成员也在近期离开,但OpenAI内部仍拥有多个专门从事AI安全的团队,以及一个专门负责分析并减轻与AI系统相关潜在灾难性风险的准备团队。这些团队将继续为公司提供强有力的安全支持。

与此同时,Altman在最近的一次播客访谈中表示,他支持建立一个国际机构来监管AI技术,以应对潜在的全球危害。这一观点显示出OpenAI在追求技术发展的同时,也关注到AI技术的全球影响和责任。

总的来说,尽管OpenAI面临了一些内部变动,但公司正积极采取措施,以确保其AI系统的安全性和可控性。随着AI技术的不断发展,OpenAI将继续致力于推动技术创新,同时确保技术的安全和可靠。

文章来源:https://www.pymnts.com/artificial-intelligence-2/2024/openai-bosses-we-take-safety-very-seriously/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消