艺术家现在可以通过 Nightshade 来反击人工智能:保护其作品免受 AI 模型训练的侵犯
站长之家(ChinaZ.com) 10月24日消息:新工具 Nightshade 赋予艺术家一种全新的力量,让他们能够在上传作品之前,对其像素进行不可见的修改,从而在作品被 AI 公司用于训练模型时,令生成的模型陷入混乱和不可预测的状态。
Nightshade 的设计初衷是为了反击那些未经创作者许可就使用其作品训练模型的 AI 公司。这种「毒害」训练数据的做法可以破坏未来的图像生成 AI 模型的迭代版本,比如 DALL-E、Midjourney 和 Stable Diffusion,使其输出的结果变得毫无用处——狗变成猫,汽车变成牛等。MIT 科技评论独家预览了这项研究,并提交给了计算机安全会议 Usenix 进行同行评审。
AI 公司如 OpenAI、Meta、Google 和 Stability AI 正面临艺术家的一系列诉讼,艺术家们声称自己的受版权保护的材料和个人信息在未经同意或未获得补偿的情况下被抓取。本工具的创造者、芝加哥大学的教授 Ben Zhao 表示,他希望 Nightshade 能够帮助将权力从 AI 公司重新移回艺术家手中,从而创建一种强有力的威慑力,防止侵犯艺术家的版权和知识产权。
Zhao 的团队还开发了另一种工具,名为 Glaze,它允许艺术家「掩盖」自己的个人风格,防止被 AI 公司抓取。Glaze 的工作方式与 Nightshade 类似:通过以肉眼不可见的方式改变图片的像素,使机器学习模型将图像解释为与其实际显示的内容不同的东西。
该团队计划将 Nightshade 整合到 Glaze 中,艺术家可以选择是否使用这种数据毒害工具。团队还打算开放 Nightshade 的源代码,让其他人可以对其进行修改并制作自己的版本。Zhao 表示,越多的人使用它并制作自己的版本,这个工具就会变得越强大。大型 AI 模型的数据集可能包括数十亿的图像,因此被抓取到模型中的「毒害」图像越多,这种技术就会造成越大的破坏。
Nightshade 开创了一种新的攻击方式,利用生成 AI 模型的一个安全漏洞——它们是基于从互联网上搜集的大量数据(在这种情况下是图像)进行训练的。Nightshade 对这些图像进行了篡改。开发者希望通过 Nightshade 的推出,能够迫使 AI 公司更加尊重艺术家的权利,例如愿意支付版税等。
- 0000
- 0000
- 0000
- 0000
- 0000