前OpenAI员工呼吁保护举报AI风险的举报人

2024年06月05日 由 samoyed 发表 104 0

一群OpenAI的现任和前员工呼吁ChatGPT的制造商和其他人工智能公司保护那些指出人工智能技术安全风险的举报员工。


周二发布的一封公开信要求科技公司建立更强大的举报人保护机制,以便研究人员能够就高性能人工智能系统的开发问题在内部和公众中表达担忧,而无需担心遭到报复。


sam-altman-admits-openai-understand-ai


今年早些时候离开OpenAI的前员工丹尼尔·科科塔伊洛(Daniel Kokotajlo)在一份书面声明中表示,科技公司正在“无视人工智能的风险和影响”,因为他们竞相开发比人类更优秀的人工智能系统,即所谓的人工智能通用智能。


“我决定离开OpenAI,因为我失去了希望,他们无法以负责任的态度行事,尤其是在他们追求人工智能通用智能时,”他写道。“他们和其他公司信奉‘快速行动,打破常规’的理念,而这与这种强大且知之甚少的技术所需要的理念背道而驰。”


OpenAI在一份回应这封信的声明中表示,它已经为员工提供了表达担忧的措施,包括匿名诚信热线。


“我们为提供最具能力和最安全的人工智能系统的记录感到自豪,并相信我们以科学的方法应对风险,”公司声明说。“我们同意,鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与全球各国政府、民间社会和其他社区进行接触。”


这封信有13位签署者,其中大部分是OpenAI的前员工,两位在谷歌的DeepMind工作或工作过。其中四人被列为OpenAI匿名现任员工。这封信要求公司停止让工人签订“不诋毁”协议,这些协议会惩罚批评公司的员工。


最近,OpenAI离职员工文件中的措辞在社交媒体上引发了众怒,迫使该公司解除了所有前员工的“不诋毁”协议。


这封公开信得到了先驱人工智能科学家约书亚·本吉奥(Yoshua Bengio)和杰弗里·辛顿(Geoffrey Hinton),以及斯图尔特·罗素(Stuart Russell)的支持。这三位科学家都警告过未来人工智能系统可能对人类存在构成的风险。


这封信是在OpenAI表示正在开发ChatGPT背后的下一代人工智能技术,并在失去包括联合创始人伊利亚·苏特斯科韦尔(Ilya Sutskever)在内的一组领导者后成立新的安全委员会之际发出的。苏特斯科韦尔是一个专注于安全开发最强大人工智能系统的团队的一部分。更广泛的人工智能研究界长期以来一直在争论人工智能的短期和长期风险的严重性,以及如何将其与技术的商业化相结合。


这些冲突导致了OpenAI首席执行官萨姆·奥特曼(Sam Altman)去年的被解雇和迅速回归,并继续加剧了对他的领导力的不信任。


文章来源:https://www.courthousenews.com/former-openai-employees-lead-push-to-protect-whistleblowers-flagging-artificial-intelligence-risks/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消