艺术家如何对抗人工智能的侵权行为

2023年10月24日 由 samoyed 发表 415 0

艺术家们有什么方法来对抗想要使用他们的作品训练人工智能的科技公司的行为呢?一组研究人员提出了一个新颖的想法:在艺术作品中加入微量毒素,从内部击败人工智能艺术生成器。


芝加哥大学计算机科学教授Ben Zhao是人工智能数据分析实践的坚决批评者,他告诉《麻省理工科技评论》说,他和他的团队开发的名为“Nightshade”的新工具正是如其名——用来毒害任何使用图像来训练人工智能的模型。迄今为止,艺术家对抗人工智能公司的唯一选择是起诉它们,或者希望开发者遵守艺术家的退出请求。


4712a81c5bd8a98cf1b403547108b450


这个工具在像素级别上操纵图像,以一种肉眼难以察觉的方式破坏它。一旦足够多这样失真的图像被用来训练人工智能,整个模型就开始崩溃。团队在SDXL的一个版本中引入了数据样本后,该模型会将关于“汽车”的提示解释为“奶牛”。一只狗会被解释为猫,而一顶帽子则变成了蛋糕。同样地,不同的风格产生了各种怪异变形。让人提示一个“漫画”,却得到了类似于19世纪印象派的艺术作品。


它还可用于保护艺术家。如果让SDXL以知名科幻和奇幻艺术家Michael Whelan的风格创作一幅画,被毒害的模型将创造出与他们的作品迥然不同的作品。


根据人工智能模型的大小,你需要数百甚至数千个被毒害的图像才能产生这些奇怪的视觉错觉。然而,这可能会迫使所有正在开发新的人工智能艺术生成器的人在使用从互联网上搜集到的训练数据之前三思。


艺术家有哪些工具可以对抗人工智能训练?


Zhao也是帮助开发Glaze的团队的领导者,该工具可以创建一种“style cloak”,来混淆艺术家的图像。它同样以扰乱图像的像素的方式误导试图模仿艺术家及其作品的人工智能艺术生成器。Zhao告诉《麻省理工科技评论》,Nightshade将成为Glaze中的另一个工具,但也将在开源市场上发布,供其他开发者创建类似的工具。


其他研究人员已经找到了一些方法来使图像免受人工智能的直接操控,但这些技术并没有阻止用于训练艺术生成器的数据抓取技术。Nightshade是迄今为止为艺术家提供保护的最具侵略性的尝试之一。


还有一种新兴的努力是试图区分真实图像和由人工智能生成的图像。谷歌旗下的DeepMind声称已经开发出一种水印标识,可以识别图像是否由人工智能生成,无论其如何被操纵。这些水印实际上与Nightshade的作用相同,以一种肉眼无法察觉的方式操纵像素。一些大型的人工智能公司承诺未来会对生成的内容进行水印标记,但目前还没有看到任何成果。


Nightshade对那些使用艺术家作品来训练他们的人工智能的公司具有潜在的破坏力,比如DeviantArt。DeviantArt社区对该网站内置的人工智能艺术生成器已经有了相当负面的反应,如果足够多的用户毒害他们的图像,开发者将不得不手动找到每一个使其被毒害的图像,否则需要重新对整个模型进行训练。


然而,该程序无法改变任何现有的模型,如SDXL或最新发布的DALL-3。这些模型已经基于艺术家的过去作品进行了训练。像Stability AI、Midjourney和DeviantArt这样的公司已经因为使用了版权作品来训练人工智能而面临艺术家的诉讼。还有许多其他诉讼针对使用未经许可的版权作品的人工智能开发者,如Google、Meta和Open AI。公司和人工智能支持者辩称,由于生成人工智能是基于训练数据创作新内容,所有那些训练数据中的书籍、论文、图片和艺术作品都属于合理使用。


Open AI的开发者在他们的研究论文中指出,他们的最新艺术生成器可以创建更为逼真的图像,因为它是根据该公司自己定制工具生成的详细字幕进行训练的。该公司并没有透露实际用于训练其新人工智能模型的数据量(大多数人工智能公司已经不愿透露有关他们的人工智能训练数据的任何信息),但随着时间的推移,对抗人工智能的努力可能会升级。随着这些人工智能工具变得更加先进,它们需要更多的数据来驱动,艺术家可能会采取多措施来对抗它们。

文章来源:https://gizmodo.com/nightshade-poisons-ai-art-generators-dall-e-1850951218
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消