MIT开发了一个“病态”AI,引发对训练AI的数据重要性的思考
2018年06月05日 由 浅浅 发表
570282
0
Norman是可以通过训练理解图片的算法,但像其同名的希区柯克影片中人物Norman Bates一样,它对这个世界没有乐观的看法。
当一般的AI算法被问到抽象形状时,它们会选择陈述一些令人愉快的东西:“枝头上的一群鸟。”然而,Norman却看到了一名男子触电。
在一般的AI看到几个人站在一起的情况下,Norman却看到一名男子从窗户跳下。
这个病态的算法是由麻省理工学院的一个研究小组创建的,以上是实验的一部分,目的是了解用从“网络的黑暗角落”获取的数据进行训练会对它的世界观产生什么影响。
该软件显示了人们在恐怖环境中死亡的图像,是从Reddit网站上挑选出来的。
然后,向AI展示墨迹图并询问其中的内容,AI来解释图片,并以文字形式描述它看到的内容。这些方法叫做罗夏克墨迹实验,通常被心理学家用来帮助评估病人的心理状态,看他们是以消极还是积极的态度看待这个世界。
Norman的观点令人沮丧,它在每张照片中都看到了尸体,血液和破坏的意义。
除了Norman之外,另一个正常的AI还接受了猫,鸟和人的正常图像训练,它在相同的墨迹图中看到了更加令人愉快的图像。
Norman的反应非常黑暗的事实说明了机器学习这个新世界中的严峻现实,Iyad Rahwan教授说,他是麻省理工学院媒体实验室开发Norman的三人团队的成员之一。
“数据比算法更重要。它强调了我们用来训练AI的数据能够反映在它认识世界及其行为方式上。”
种族主义AI
诺曼是偏向于死亡和破坏,因为这是众所周知的,如果现实生活中的AI受到有缺陷数据的训练,他们可能同样会带有偏见。
Rahwan教授表示,他对诺曼的实验证明,“工程师必须以某种方式平衡数据,”但他承认机器学习重要性和规模不断扩大,不能仅仅留给程序员去做。
“有越来越多的人相信,可以用研究人类行为相同方式来研究机器行为,”他说。
微软首席设想官Dave Coplin认为,Norman是与公众和企业开始重要对话的好方法,他们将越来越依赖人工智能。
他说,必须以“对这些事情如何工作的基本了解”开始。“我们正在教导算法,就像我们教人类一样,所以存在一种风险。当我看到一个算法的答案时,我需要知道是谁做出了这个算法,”他补充道。
AI仍然有很多东西需要学习,但Coplin仍然希望,随着算法嵌入到所做的一切事情中,人类会更好地发现和消除数据中的偏见。