科学家推新工具Glaze 保护艺术家作品风格被AI系统模仿
本文概要:
1. 芝加哥大学的科学家声称发明了一种可以保护艺术家作品不被用于训练人工智能系统的工具。
2. 这种工具通过向数字艺术作品添加一个看不见的层,使其对于人类来说看起来一样,但对于人工智能来说却完全不同。
3. 许多艺术家感到无助,这种工具为他们提供了一种抵抗的方式。
芝加哥大学的科学家声称开发了一种名为 Glaze 的新工具,旨在保护艺术家的作品不被用于训练人工智能系统。
这种工具通过向数字艺术作品添加一个看不见的层,使其在人类眼中看起来不变,但对 像MidJourney 或 Stable Diffusion 这样的人工智能模型来说却完全不同。
当人工智能模型被训练使用这些图片时,它们无法准确理解艺术家的作品,从而使其输出无用。
Glaze 的核心特色功能包括:
1. 对抗风格模仿:Glaze 的技术,能够破坏人工智能模型对艺术作品的风格模仿。它使用机器学习算法计算一组最小变化,使艺术作品在人眼看来没有变化,但在人工智能模型看来具有完全不同的艺术风格。
2. 保护人类艺术家:Glaze 旨在保护人类艺术家免受未经授权的复制和模仿。通过破坏风格模仿,Glaze 帮助艺术家保持他们的独特性和身份,避免低质量复制品的流传。
3. 安全且稳健:Glaze 被设计为稳健的系统,经过广泛的测试和对策。它不易被攻击者破坏,因为攻击者难以定位和计算 Glaze 所作用的变化维度。
4. 免费使用:Glaze 免费供任何人使用,没有商业模式、订阅或隐藏费用。它不需要网络连接即可运行,并且不会向开发者或任何其他人发送回数据。
目前,一些艺术家已经开始使用这种工具,这给他们带来了一丝希望。在过去的几个月里,艺术家对于人工智能模型在未经许可的情况下使用他们的作品感到绝望。即使一些人工智能公司采取了措施减慢特定艺术家作品的生成,他们的作品仍然存在于数据集中,并且一些开源社区的人们也愿意无视艺术家的意愿。
如果 Glaze 和类似工具对这些艺术家有所帮助,将是一个令人振奋的变革。
Glaze 项目网址:https://glaze.cs.uchicago.edu/what-is-glaze.html
- 0000
- 0001
- 0000
- 0000
- 0000