对话深度学习大师Bengio:AI不应变成军备竞赛
2019年01月23日 由 荟荟 发表
952034
0
人工神经网络和深度学习领域的大牛、加拿大计算机科学家Yoshua Bengio日前在MIT的一次活动中接受采访时表示,希望停止有关人工智能军备竞赛的讨论,并让发展中国家更容易获得这项技术。
Yoshua Bengio是现代人工智能的大师,与Geoff Hinton和Yan LeCun一起并称“深度学习三巨头”,Bengio以倡导“深度学习”技术而闻名,近年来,这一技术已经从学术届的尝试转变成了目前全世界最强大的技术之一。
深度学习包括将数据输入到大型神经网络中,这些神经网络简略地模拟人类的大脑,它在各种实际任务中都被证明是非常强大和有效的——从语音识别、图像分类到控制自动驾驶汽车和自动化商业决策。
Bengio并没有选择加入任何大型科技公司。虽然Hinton和LeCun分别加入了谷歌和Facebook,但Bengio仍然是蒙特利尔大学的全职教授。他在2016年成立了Element AI,并创立了一个非常成功的项目,帮助大公司探索人工智能研究的商业应用。
以下为Yoshua Bengio教授采访实录:
问:你如何看待各个国家之间的人工智能竞赛?
Bengio :我认为这是不正确的做法。我们可以共同参与一场竞赛,但作为一名科学家,我认为我们应当考虑人类的共同利益,应该更多地去思考如何建造出更智能的机器,并确保人工智能为更多的人谋福祉。
问:那么是否有办法促进各国之间的合作?
Bengio :我们可以让发展中国家的人们更容易进入这一领域。这是一个很大的问题,因为在欧洲、美国或加拿大,一个非洲研究人员很难获得签证。申请签证就像彩票,他们会用任何借口拒绝申请。这是完全不公平的。发展中国家用很少的资源做研究已经很困难了,但是如果他们还不能接触到人工智能社区,我认为这是非常不公平的。作为补偿这一问题的一种方式,我们将于2020年在非洲举办一个大型的人工智能会议——ICLR(International Conference on Learning Representations,国际学习表征会议)。
包容性不仅仅是一个好听的词而已。人工智能在发展中国家的潜力可能更大,他们改进技术的需要比我们更强烈,并且他们有不同的需求。
问:你是否担心其他国家的人工智能公司会占据人工智能领域的主导地位?
Bengio :是的,这是我们在人工智能研究中需要更多民主的另一个原因。人工智能研究本身往往会导致权力、金钱和研究人员的集中。最好的学生都想去最好的公司,因为他们有更多的钱,有更多的数据。这是不健康的模式。即使在民主国家,权力集中在少数人手中也是危险的。
问:关于人工智能的军事用途已经引起了很多争议。你在这方面的立场是什么?
Bengio :我坚决反对。
问:即使是非致命的用途?
Bengio :我并不想阻止人工智能的军事用途,但我认为我们需要达成一种共识,即杀手机器人是不道德的事情。我们需要改变文化,包括改变法律和条约。这可能会有很长的路要走。
当然,你永远不能完全阻止它,人们会说,“某些流氓国家会发展这些东西。”我的回答是,第一,我们需要让他们为自己的行为感到羞愧,而第二,没有什么可以阻止我们建立防御技术。防御性武器可以消灭无人机,但它和针对人类的攻击性武器不同,两者之间存在着巨大的差异。但两者都可以使用AI。
问:难道人工智能专家不应该与军方合作来确保这一切发生吗?
Bengio :如果他们有正确的道德价值观,那很好。但我并不完全信任军事组织,因为他们倾向于认为责任先于道德。我所希望的并不是这样。
问:在新的人工智能研究中,最令你兴奋的是什么?
Bengio :我认为我们需要考虑人工智能的严峻挑战,而不只是对短期的、渐进的进步感到满意。我并不是说我想放弃深度学习。相反,我想在此基础上继续发展。但是我们需要能够扩展它来做一些事情,比如推理,学习因果关系,探索世界,以便学习和获取信息。
如果我们真的想实现接近人类水平的AI,那就是另外一场比赛。我们需要长期投资,我认为学术界是最好的将其传递下去的地方。
问:不仅要抓住数据中的模式,还要抓住某些事情发生的原因。为什么这很重要,以及为什么它会这么难呢?
Bengio :面对复杂的世界,如果你有一个好的因果模型,你可以在不熟悉问题的情况下就进行概括,得出结论,这是关键。我们人类能够将自己投射到与我们日常经验截然不同的情境中,而机器不能,因为它们没有这些因果模型。
我们可以手工创建模型,但这还不够。我们需要能够发现因果模型的机器。在某种程度上,它永远不会是完美的。就像现实中我们也没有一个完美的现实的因果模型,这就是为什么我们也会犯很多错误,但是和其他动物相比,我们已经做得很好了。
现在,我们并没有很好的算法来解决这个问题,但是我认为,如果有足够多的人在努力,并且予以足够的重视,我们就会取得进步。