PhotoGuard:针对未授权的图像处理的终极防护措施
2023年07月31日 由 Camellia 发表
512074
0
麻省理工学院提出了一种新的人工智能工具,旨在防止像DALL-E和Midjourney等模型对图像进行未经授权的更改。
从浪漫的诗歌到萨尔瓦多·达利风格的图像,生成式人工智能现在可以做到这一切。它的表现往往与人类创作的作品难以区分。自图灵测试确定以模仿人类为标准以来,关于技术模仿人类的讨论一直是公众辩论的主要话题。在可能滥用技术风险中,社区一直试图区分人类创作的文字和由人工智能生成的文字。
麻省理工学院的解决方案:PhotoGuard
麻省理工学院计算机科学与人工智能实验室的科学家们开发了一种名为"PhotoGuard"的新型人工智能工具,旨在防止未经适当授权对图像进行更改。
PhotoGuard利用了"对抗性扰动",这是一种对像素值进行微小改变的方法,这些改变对人眼不可见,但可以被计算机模型检测到。这些扰动扰乱了人工智能模型有效处理图像的能力。PhotoGuard使用两种攻击方法生成这些扰动。
"编码器"攻击的目标是人工智能模型对图像的潜在表示,导致模型将图像视为随机的。这种攻击的目标是扰乱隐含表示模型(LDM)将输入图像编码为隐含向量表示,然后用于生成新图像的过程。他们通过使用投影梯度下降(PGD)解决优化问题来实现这一目标。扰动添加到原始图像中后,会导致LDM生成一个无关或不现实的图像。
另一方面,"扩散"攻击定义了目标图像,并优化扰动以使最终图像与目标图像紧密相似。这种攻击更加复杂,旨在扰乱扩散过程本身,不仅针对编码器,还包括文本提示条件的完整扩散过程。其目标是通过使用PGD解决另一个优化问题来生成特定的目标图像(例如,随机噪声或灰度图像)。这种攻击不仅使被免疫图像的效果失效,还使文本提示的效果失效。
这项研究论文的主要作者、麻省理工学院的博士生Hadi Salman告诉AIM:"从本质上讲,PhotoGuard的对抗扰动机制为图像增加了一层保护,使其免受扩散模型的篡改。"通过重新利用这些人眼难以察觉的像素修改,PhotoGuard保护图像免受此类模型的篡改。
例如,考虑一个包含多张脸的图像。你可以对你不想修改的脸进行遮挡,然后使用"两个人参加婚礼"进行提示。在提交后,系统将相应地调整图像,创建一个合理的描绘两个人参加婚礼仪式的图像。现在,考虑保护图像免受编辑;在上传之前向图像添加扰动可以防止其被修改。在这种情况下,最终输出相对于原始的非免疫图像缺乏真实感。
Salman总结道:"我对人工智能取代人类创造力持怀疑态度。我预计在长期情况下,人工智能将成为设计师手中的另一个(强大)工具,以提高个人的生产力,在技术障碍的情况下更好地表达他们的思想。"
解码问题
最近参议院有关人工智能监管的讨论将焦点集中在版权和艺术家激励等最紧迫的问题上。OpenAI、HuggingFace、Meta等公司的高级执行官已经在美国国会作证,就人工智能的潜在危险提出建议,并提议建立一个新的政府机构来为大型人工智能模型发放许可证、撤销不合规许可证并设置安全协议。
这种对监管的呼吁的主要动力源于对版权侵权的担忧。艺术家社区首先对Stability AI、Midjourney和DeviantArt等图像生成公司提起诉讼,要求这些公司赔偿在未经许可的情况下使用其艺术作品所造成的 。
人工智能生成的内容遭到Shutterstock、Getty等图像公司以及将其视为其知识产权威胁的艺术家的反对。但最终,他们中的大多数都已与相关公司建立了合作关系。Adobe的Firefly是一个为"安全的商业用途"而设计的生成式图像生成器。Adobe提供知识产权赔偿保护,以确保用户在使用时不会面临法律问题。它基于英伟达的Picasso,该模型是在Getty Images和Shutterstock的授权图像上进行训练的。Shutterstock还与DALL-E的创建者OpenAI合作提供训练数据。它还为在其平台上使用生成式人工智能图像的企业客户提供全面的赔偿保护,以确保对图像使用相关的任何潜在法律索赔的保护。谷歌、微软、OpenAI也开始通过加水印来缓解版权问题。
来源:https://analyticsindiamag.com/meet-photoguard-the-ultimate-shield-against-unauthorised-image-manipulation/