人工智能的出现引起了技术领导者、政治家和公众不同的反应。一些人兴奋地吹捧像ChatGPT这样的AI技术是一个有利的工具,具有改造社会的潜力,而另一些人则对任何带有“智能”一词的工具有可能超越人类的可能性感到警觉。
Cincinnati大学的哲学和心理学教授Anthony Chemero声称,大家对AI的理解被语言学弄糊涂了:尽管的确具有智能,但AI不可能像人类那样具有智能,即使“它能像其制造者一样撒谎和胡说八道。”
根据我们日常使用的词汇,AI绝对是有智能的,但有智能的计算机已经存在多年了,Chemero在他参与撰写的一篇发表在《自然·人类行为》杂志上的论文中解释说。首先,论文指出ChatGPT和其它AI系统是大规模语言模型(LLM),它们通过大量从互联网挖掘的数据进行训练,而这些数据很多时候带有发布数据人的偏见。
“LLM能够生成令人印象深刻的文本,但经常完全凭空捏造事实,”他说。“它们学会生成语法正确的句子,但它们实际上不知道它们所说的东西意味着什么,”他说。“LLM与人类的认知不同,因为它们没有具体实体。”
制造LLM的人称它们凭空捏造东西时为“幻觉”,尽管Chemero说,“更好的称呼是‘胡言乱语’”,因为LLM仅仅是通过不断添加最有可能性的下一个词语来造句——它们不知道也不在乎它们所说的是否属实。
而且只要稍作引导,他说,人们可以让一个AI工具说出“种族歧视、性别歧视和其它有偏见的恶毒话语。”
Chemero的论文的意图是强调LLM并不是像人类那样有智能,因为人类是有实体的:始终被其它人类以及物质和文化环境所包围的生物。
“这使我们关心自己的生存和我们所生活的世界,”他指出LLM并不真正处在世界中,也不关心任何事物。
LLM并不像人类那样拥有智能,因为它们“根本不在乎”,Chemero表示,“事物对我们而言是重要的。我们致力于改善我们的生存环境。我们关心我们所生活的世界。”