无需过于担心deepfake,研究表明人们通过练习能够更好地识别假新闻
2019年07月15日 由 bie管我叫啥 发表
241759
0
由AI制作的假视频和图片开始泛滥,促使学者和立法者呼吁采取对策,以免削弱人们的信任,但麻省理工学院媒体实验室和马克斯普朗克人类发展研究所的研究人员表示,这些担忧可能被夸大了。
在一篇新论文“Human detection of machine manipulated media”中,科学家详细介绍了一项旨在衡量人们识别机器操纵介质的能力的实验。
他们报告说,当参与者的任务是猜测一对图像中的哪些图像是用AI进行编辑时,人们通常会在提供有关其检测尝试的反馈时学会快速检测假照片。仅10对之后,大多数人的评分准确度提高了10个百分点以上。
论文写道,“今天,人工智能模型几乎可以立即产生照片般逼真的操作,从而放大了错误信息的潜在规模。这种不断增长的能力要求了解个人区分真实和虚假内容的能力,我们的研究提供了初步证据,证明人类检测虚假机器生成内容的能力可能会随着内容普及而增加。”
2018年8月,该团队在一个名为“Deep Angel”的网站上的“侦测赝品”部分嵌入了他们的目标移除人工智能模型,该模型能自动在海洋图片中检测到船只之类的物体,并将它们移除,然后用近似闭塞背景的像素替换它们。
在测试中,用户会看到两张图片,并被问到哪张图片被Deep Angel删除了,一个是人工智能模型删除的对象,另一个是2014年开源MS-COCO数据集的未修改样本。
从2018年8月到2019年5月,超过16500个IP地址提交了24万次猜测,平均识别准确率为86%。在观看了至少10幅图像的7500人的样本中,第一幅图像的平均正确分类率为78%,第十幅图像的平均正确分类率为88%,大多数经过处理的图像以90%以上的准确率被识别出来。
研究人员承认,他们的结果普遍性仅限于他们的AI模型产生的图片,未来的研究可以扩展所研究的领域和模型。后续研究是调查直接反馈如何帮助或阻碍检测能力。但他们的研究结果表明,有必要重新审视通常应用于内容生成人工智能的预防原则。
研究结果建立在最近的研究基础之上,这些研究表明人类直觉可以成为关于图像对抗性扰动的可靠信息来源,让人们熟悉假新闻是如何产生的,可能会让人们在后来接触到虚假信息时产生认知免疫。