“机器能思考吗?”这是英国著名数学家和计算机科学家 Alan Turing在他的论文“Computing Machinery and Intelligence”中提出的问题。作为回应,图灵提出了模仿游戏,后来被称为“图灵测试”,用于确定计算机是否能够展示与人类无异的智能行为。但是,这已经是70多年前的事了。今天,人工智能领域最引人关注的问题是最近的进展是否有可能导致人工智能具有意识。
自从谷歌前工程师Blake Lemoine因声称他测试的聊天机器人LaMDA是有知觉的以来,这个话题引起了广泛关注。随着OpenAI和许多其他公司开始研究人工通用智能(AGI),这种可以复制人类的一般认知能力的人工智能,人工智能具有意识的可能性最近被广泛讨论。尽管AGI本身并不需要意识,但人们还是在问:“我们如何知道任何机器是否有意识?”。
鉴于该领域的重大进展,许多研究人员和人工智能界的成员认为“图灵测试”已经不再适用。该测试旨在确定机器的智能水平,而不是意识水平。然而,最近,一个由19名计算机科学家、神经科学家和哲学家组成的团队提出了一种涉及大量属性的方法来测试人工智能的意识。尽管这种方法并不能进行准确的意识的测试,但其中包含了一个有意识的人工智能模型可能显示的14个“指示属性”。
这些研究人员在题为“人工智能意识:来自意识科学的启示”的论文中表示:“我们调查了几个著名的意识科学理论,包括循环处理理论、全局工作区理论、高阶理论、预测处理和注意模式理论。从这些理论中,我们推导出意识的‘指示属性’,并用计算术语阐明,以便我们可以评估AI系统是否具备这些属性。”他们测试了Google的PaLM-E和DeepMind的Adaptive Agent等目前的人工智能模型,但并未发现任何显著证据表明任何当前的模型具有意识。尽管像GPT模型这样的大型语言模型在英语方面表现出色,使它们可能看起来像是有意识的存在,但实际上并非如此。
需要注意的是,尽管这篇论文引起了许多人的关注,但它是预印版,这意味着尚未经过同行评议。此外,我们还必须考虑到上述理论是设计用来测试人类意识的,仍然存在是否可以将这些理论应用于人工智能的问题。
虽然研究人员表示他们的研究仍在进展中,但其中一些人正在研究一个更广泛的意识测试,该测试也可以应用于器官样品、动物和新生儿。此外,“尽管这些指标本身可能会随着意识理论的发展而发生变化,但我们希望这种方法能够帮助客观地讨论人工智能意识的问题,”该论文的一位作者Eric Elmoznino说。
Lemoine因声称LaMDA有知觉而失去了在谷歌的工作。但他不是唯一一个提出这样主张的研究人员。之前,OpenAI的联合创始人Ilya Sutskever也声称大型神经网络可能已经稍微有意识。与Lemoine类似,Sutskever也遭到了严厉的抨击,但他仍然保有工作。有趣的是,上述论文的研究人员们指出,证据表明如果计算机功能主义是正确的,有意识的人工智能系统在不久的将来是可以实现的。
此外,许多人认为具有感官和在物理世界中行动能力的人体存在是意识的先决条件。但也有不同的观点。德国物理学家Sabine Hossenfelder曾表示:“我几乎毫不怀疑AI最终将变得有意识,因为我认为意识不需要特定的物理基础(比如大脑)或任何除了适当的信息处理能力之外的东西。”但目前没有确凿的研究来证明任何一种说法。
另一方面,像这样的讨论往往会加剧人工智能的炒作。新南威尔士大学悉尼分校(UNSW Sydney)的人工智能研究员Toby Walsh认为,当投机性辩论成为焦点时,需要几个月的努力来让人们重新关注人工智能所带来的实际机遇和挑战。
这可能会掩盖已经在各个行业中产生积极影响的人工智能技术的逐渐进步和实际应用。过多关注炒作可能会转移注意力和资源,而这些资源本可以用于现实世界可以带来切实利益的人工智能应用。
此外,像Sutskever和Lemoine所作的评论往往会加剧有关人工智能的恐慌情绪。人们已经写了无数关于人工智能达到人类水平或变得有意识可能带来潜在风险的文章,甚至有人认为这可能导致人类灭绝。Hugging Face的首席伦理学家Giada Pistilli表示,重要的是进行负责任的报道,并在适当的背景下了解人工智能的能力和益处,而不仅仅滋养恐惧情绪的叙述。
此外,意识是一个复杂而难以捉摸的现象,几个世纪以来一直是哲学探讨、科学研究和争议的主题。从哲学和科学的角度看,人类对意识这个概念的理解非常有限。
考虑到人类对意识的有限理解,理解和创建有意识的人工智能仍然是一个巨大的挑战。然而,追求这个目标可以为人工智能的发展和我们对意识本身的理解提供有价值的见解。尽管如此,就目前而言,人类仍在努力理解意识本身,人工智能也在蓬勃发展。