OpenAI的新团队:在超智能AI时代保护人类

2023年07月07日 由 Samoyed 发表 720579 0
超智能AI系统的潜在危险一直是该领域专家关注的话题。

最近,被誉为“AI教父”的Geoffrey Hinton表达了对超智能AI超越人类能力并对人类造成灾难性后果的担忧。

同样,OpenAI的首席执行官Sam Altman也承认对先进AI对社会可能产生的影响感到恐惧。



作为对这些担忧的回应,OpenAI宣布成立一个名为Superalignment的新部门。

这一举措的主要目标是确保超智能AI不会导致混乱甚至人类灭亡。OpenAI承认超智能可以拥有巨大的力量,并对人类构成潜在的危险。

尽管开发出超智能AI可能还需要一些时间,但OpenAI认为它可能将在2030年成为现实。目前,尚没有建立起一个可以控制和引导可能出现的超智能AI的系统,这使得主动采取措施显得尤为重要。

Superalignment旨在建立一个由顶级机器学习研究人员和工程师组成的团队,负责开发一个“大致与人类水平相当的自动化对准研究者”。这位研究者将负责对超智能AI系统进行安全检查。

OpenAI承认这是一个雄心勃勃的目标,并不保证成功。然而,该公司仍然乐观地认为,通过有目标、有计划的努力,超智能AI的对准问题是可以解决的。

OpenAI的ChatGPT和Google的Bard等AI工具的崛起已经给工作场所和社会带来了显著变化。专家预测,在超智能AI出现之前,这些变化只会加剧。

认识到AI的变革潜力,世界各国政府正在竞相制定法规,以确保人工智能的使用安全和负责任的部署。然而,缺乏一个统一的国际规定给这一目标的实现带来了挑战。不同国家的不同规定可能会导致不同结果,使得实现Superalignment的目标更加困难。

OpenAI通过积极将AI系统与人类价值观进行对准,并开发必要的治理结构,来减轻超智能的巨大力量可能带来的危险。

虽然当前的任务无疑是复杂的,但OpenAI致力于解决这些挑战,并让行业内的顶级研究人员参与其中,表明了其对实现负责任和有益的AI发展做出了重大努力。

 

来源:https://www.artificialintelligence-news.com/2023/03/23/mozilla-ai-picks-up-openai-founding-mission/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消