英特尔实验室如何使用人工智能打击错误信息
2023年07月17日 由 daydream 发表
597782
0
几年前,Deepfake技术似乎是一种新颖的技术,其制造商依赖于强大的计算能力。如今,Deepfake技术无处不在,并有可能被用于误导信息、黑客攻击和其他危险目的。
英特尔实验室已经开发了实时的Deepfake检测技术来应对这一日益严重的问题。英特尔的高级研究科学家Ilke Demir解释了Deepfake技术的原理,英特尔的检测方法,以及在开发和实施这类工具时涉及的道德考虑。
Deepfake是指使用人工智能(AI)创建的视频、语音或图像,其中演员或行为并非真实存在。Deepfake利用复杂的深度学习架构,如生成对抗网络、变分自动编码器和其他AI模型,创造出高度逼真可信的内容。这些模型可以生成合成的人物形象、唇同步视频,甚至进行文本到图像转换,使真实内容与虚假内容之间难以区分。
有时,deepfake这个术语也用于指被篡改的真实内容,比如2019年那段被篡改的使前众议院议长南希·佩洛西看起来喝醉了的视频。
Demir的团队研究的是计算机生成的深度伪造内容,也就是机器生成的合成形式的内容。他说:“之所以称之为deepfake,是因为在生成式人工智能中有这样一种复杂的深度学习架构创造所有这些内容。”
网络犯罪分子和其他不法分子经常滥用深度伪造技术。一些使用案例包括政治信息误导、以名人或未经同意的个人为主题的成人内容、市场操纵以及为了谋取经济利益而进行的冒充行为。这些负面影响凸显了需要有效的深度伪造检测方法的必要性。
英特尔实验室已经研发出世界上首个实时深度伪造检测平台之一。该技术不是通过寻找伪造痕迹,而是专注于检测真实的信号,例如心率。利用一种名为光电容积描记术(photoplethysmography)的技术,该检测系统分析由于氧含量而引起的静脉颜色变化,这种变化在计算机上可见,从而可以检测出人物是否是真人或人工合成。
Demir表示:“我们试图观察什么是真实的。心率是其中之一。所以当你的心脏输送血液时,血液会到达静脉,静脉的颜色会因氧含量而变化。这种变化对我们的眼睛来说不可见;我不能仅靠观察这个视频就看出你的心率。但这种颜色变化在计算机上是可见的。”
英特尔的深度伪造检测技术正在多个领域和平台上得以应用,包括社交媒体工具、新闻机构、广播公司、内容创作工具、初创企业和非营利组织。通过将这项技术整合到工作流程中,这些组织可以更好地识别和减轻深度伪造和错误信息的传播。
尽管深度伪造技术存在被滥用的潜力,但它也有合法的应用。早期的一个应用是在数字环境中更好地代表个人的创建虚拟人物。Demir提到了一个特定的应用案例,名为“MyFace, MyChoice”,利用深度伪造技术来提升在线平台上的隐私保护。
简单来说,这种方法允许个人控制他们在在线照片中的外表,如果他们想避免被识别,可以用“可量化的不同 deepfake”替换他们的脸。这些控件提供了更多的隐私和对个人身份的控制,有助于抵消自动人脸识别算法。
确保人工智能技术的道德发展和实施至关重要。英特尔的可信媒体团队与人类学家、社会科学家和用户研究人员合作,评估和完善该技术。该公司还设有道德人工智能委员会,审查具有道德和责任原则的人工智能系统,包括潜在的偏见、限制和可能的有害用例。这种多学科的方法有助于确保人工智能技术(如深度伪造检测)造福于人类,而不会造成伤害。
Demir表示:“我们有法律专家,有社会科学家,有心理学家,他们齐聚一堂,共同指出限制,查找是否存在偏见——算法偏见、系统性偏见、数据偏见、任何类型的偏见。”团队会扫描代码,寻找“可能有害人的技术的任何潜在用例”。
随着深度伪造技术变得越来越普遍和复杂,开发和实施检测技术来应对错误信息和其他有害后果变得越来越重要。英特尔实验室的实时深度伪造检测技术为这一日益严峻的问题提供了可扩展且有效的解决方案。
通过纳入道德考虑并与各领域专家合作,英特尔致力于创造一个未来,其中人工智能技术能够负责任地使用,并造福社会。
来源:https://www.zdnet.com/article/real-time-deepfake-detection-how-intel-labs-uses-ai-to-fight-misinformation/