未来的人工智能系统可能会有意识

2023年09月13日 由 samoyed 发表 198 0

2022年6月,谷歌工程师Blake Lemoine因声称该公司的LaMDA聊天机器人实现了感知而成为头条新闻。Lemoine说,该软件具有早熟的七岁孩子的对话能力,我们应该假设它对世界也有类似的认识。


LaMDA,后来以Bard的名字向公众发布,由一个“大型语言模型”(LLM)提供动力,该模型也构成了OpenAI的ChatGPT机器人的引擎。其他大型科技公司也在争相部署类似的技术。


why-chatgpt-isnt-consc


数亿人现在有机会使用LLM,但似乎很少有人相信他们有意识。相反,用语言学家和数据科学家Emily Bender的诗意短语来说,它们是“随机鹦鹉”,在没有理解的情况下令人信服地喋喋不休。但下一代人工智能(AI)系统以及之后的系统呢?


我们的哲学家、神经科学家和计算机科学家团队着眼于当前人类意识如何工作的科学理论,制定了一份基本计算特性清单。在我们看来,目前没有一个系统能接近意识的门槛——但与此同时,也没有明显的证据证明未来的系统不会真正有意识。


查找指标


自1950年计算机先驱Alan Turing提出“模仿游戏”以来,在对话中成功模仿人类的能力经常被视为有意识的标志。这通常是因为这种任务看起来太难了,必须有意识才可以做到。


然而,正如国际象棋计算机Deep Blue在1997年击败特级大师Gary Kasparov一样,LLM的流利对话可能只是移动了门柱。有有没有一种原则性的方法来解决关于人工智能意识的问题,而不依赖于我们关于人类认知的困难或特殊之处的直觉?


我们最近的白皮书就是为了解决这个问题。我们比较了当前关于人类意识的科学理论,编制了一份“指标属性”清单,然后应用于人工智能系统。


我们不认为拥有指标属性的系统肯定是有意识的,但指标越多,我们就越应该认真对待人工智能有意识的这种说法。


意识背后的计算过程


我们在寻找什么样的指标?我们避免了公开的行为标准,比如能够与人交谈,因为这些标准往往以人为中心,而且很容易伪造。


相反,我们研究了支持人脑意识的计算过程理论。这些可以告诉我们支持主观体验所需的信息处理类型。


例如,“全局工作区理论”假设意识是由具有容量限制的瓶颈产生的,该瓶颈汇集了大脑各个部分的信息,并选择并传播全局可用信息。“递归处理理论”则强调了后续处理对前面处理的反馈作用。


每一种理论都提出了更具体的指标。我们的最终清单包含14个指标,每个指标都关注系统如何工作的一个方面,而不是它们的行为。


没有理由认为当前的系统有意识


我们的分析表明,没有理由认为当前的人工智能系统是有意识的。


有些确实达到了一些指标。使用transformer架构(ChatGPT和类似工具背后的一种机器学习模型)的系统满足三个“全局工作区理论”指标,但缺乏全局传 播的关键能力。它们也不能满足大多数其他指标。


所以,尽管ChatGPT有着令人印象深刻的对话能力,但内部可能没有任何意识存在。其他体系结构最多也只满足少数几个标准。


大多数当前的体系结构最多只满足少数指标。然而,对于大多数指标来说,至少有一个当前架构符合要求。


这表明,在构建满足大部分或全部指标的人工智能系统方面,原则上没有明显的技术障碍。


出现有意识的人工智能系统可能只是一个时间问题。当然,在有意识的系统出现后,还会出现很多问题。


文章来源:https://techxplore.com/news/2023-09-chatgpt-isnt-consciousbut-future-ai.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消