DeepMind开发新AI:学习理解其他AI思想并进行预测
2018年07月30日 由 浅浅 发表
702950
0
任何与Siri或Alexa有过互动的人都知道,数字助理根本不懂人类。它们需要的是心理学家所谓的心智理论,即对他人信仰和欲望的认识。现在,DeepMind已经开发了一种AI,可以探测其他计算机的“思想”并预测其行为,这是机器之间以及机器与人之间流畅协作的第一步。
对于在充斥着其他人想法的世界中畅游,心智理论所描述的显然是一种至关重要的能力,大约4岁时,人类儿童明白另一个人的信仰可能与现实不同,并且这些信念可以用来预测人的未来行为。今天的一些计算机可以标记面部表情,例如“快乐”或“愤怒”,与心理理论相关的技能,但他们对人类情绪或激励我们的东西几乎没有理解。
新项目的开始是为了让人类了解计算机。AI使用的许多算法并不完全由程序员编写,而是依赖于机器学习,因为它顺序解决问题。由此产生的计算机生成的解决方案通常是黑盒子,算法太复杂,无法穿透人类洞察力。因此,伦敦DeepMind的研究科学家Neil Rabinowitz及其同事创建了一种名为“ToMnet”的心智理论AI,让它观察其他AI,以了解它们如何运作。
ToMnet包含三个神经网络,每个神经网络由小型计算元素和连接组成,这些元素和连接从经验中学习,与人类大脑非常相似。第一个网络根据过去的行为来了解其他AI的趋势。第二种形式是对他们当前“信念”的理解。第三种是从其他两个网络获取输出,并根据情况预测AI的下一步动作。
被研究的几个AI是简单的人物,他们在一个虚拟的房间里四处走动,收集彩色的盒子。ToMnet从上面观察这个房间。在一个测试中,有三种角色:一个不能看到周围的房间,另一个不能记住它最近的步骤,最后一个可以看到并记住。看不到的人倾向于沿着墙走,没有记忆的人倾向于转移到任何最接近的物体,第三个人形成了子目标,以一种特定的顺序战略性地抓住物体以获得更多的积分。
研究人员本月在斯德哥尔摩举行的国际机器学习会议上报告说,经过一些训练,ToMnet不仅可以在几个步骤之后识别出一个角色,而且还可以正确地预测它未来的行为。
最后的测试显示,ToMnet甚至可以理解一个角色何时持有错误的信念,这是人类和其他动物心理理论发展的关键阶段。在这个测试中,一种角色被编程为近视,当计算机在游戏中途改变景观超出其视野时,ToMnet准确地预测它会比那些更有可能适应的视力更好的角色更频繁地坚持原始路径。
Gopnik说这项研究是神经网络“自我学习技能”的惊人能力的例子,以及会议上的另一项研究表明AI可以根据它们对自己的了解来预测其他AI的行为。但是,这仍然没有让它们与人类儿童处于同一水平,即使他们以前从未遇到过这种情况,他们也可能以近乎完美的准确度通过这种错误信念任务。
剑桥麻省理工学院的心理学家和计算机科学家Josh Tenenbaum也致力于心智理论的计算模型。他说ToMnet比他的团队系统更有效地推断信念,这个系统基于更抽象的概率推理形式而不是神经网络。但他补充说,ToMnet的理解与其训练的背景更紧密地联系在一起,使得它无法像在他的系统甚至幼儿所能做的那样预测全新环境中的行为。他说,在未来,结合各种方法可能会把这个领域带入非常有趣的方向。
Gopnik指出,计算机正在发展的那种社交能力不仅会改善其与人类的合作,也可能会影响计算机的欺骗行为。如果计算机理解错误的信念,它可能知道如何让人们相信它。