AI生成儿童性虐待图像或网络泛滥,英国监管机构敦促采取行动
# 划重点
1. 🌐 互联网上已存在的儿童性虐待图像问题可能进一步恶化,监管机构敦促对生成深度伪造照片的人工智能工具进行控制。
2. 🤖 以英国为基地的互联网观察基金(IWF)在一份报告中敦促政府和技术提供商在人工智能生成的儿童性虐待图像泛滥之前迅速采取行动。
3. 📉 报告揭示了生成式人工智能系统的黑暗面,可能导致调查人员被深度伪造的虚拟儿童拖慢,甚至扩大潜在受害者的范围。
在一份写给政府和技术提供商的报告中,总部位于英国的互联网观察基金(IWF)周二警告称,互联网上已存在的儿童性虐待图像问题可能会变得更加严重,如果不对生成深度伪造照片的人工智能工具进行控制的话。该监管机构敦促各国政府和技术提供商在深度伪造的儿童性虐待图像席卷执法调查人员、并极大扩大潜在受害者的范围之前迅速采取行动。
互联网观察基金首席技术官丹·塞克斯顿(Dan Sexton)表示:“我们不是在谈论它可能造成的危害,而是在说这正在发生,而且需要立即解决。”
报告中首次提到,韩国一名男子于9月被判刑2年半,因使用人工智能制作360度虚拟儿童虐待图像,这是韩国首次发生这样的案件。在西班牙西南部的一所学校,警方调查了青少年使用手机应用程序使穿着衣服的同学在照片中显露裸体的行为。
报告揭示了生成式人工智能系统的黑暗面,该系统允许用户用文字描述他们想要制作的内容,从电子邮件到小说艺术作品或视频,然后由系统生成。如果不加以制止,深度伪造的儿童性虐待图像可能会使调查人员陷入营救事实上是虚拟人物的困境。作恶者还可以利用这些图像来勾引和胁迫新的受害者。
塞克斯顿表示,互联网观察基金分析人员发现在线上出现了名人儿童的面孔,以及对“已经被虐待,可能是多年前”的儿童创建更多图像的“巨大需求”。
报告强调了建立生成式人工智能满足用户要求的同时,加强法律以更容易打击人工智能生成的滥用的必要性。报告特别针对欧洲联盟提出建议,目前正就是否自动扫描消息应用程序以寻找涉嫌儿童性虐待图像的监控措施进行辩论,即使这些图像在之前未被执法机构知晓。
互联网观察基金的工作重点之一是通过禁止重新传播受害者照片来防止先前的性虐待受害者再次受到伤害。报告表示,技术提供商可以采取更多措施,使其产品难以用于这种方式,尽管由于一些工具难以收回而使问题复杂化。
报告指出,去年推出了一批新的人工智能图像生成器,并以其根据命令产生奇幻或逼真图像的能力令公众瞩目。但由于它们大多包含阻止滥用的机制,因此大多数生成器不受制造儿童性虐待材料的制作者青睐。
对于具有完全控制其训练和使用方式的封闭人工智能模型,例如OpenAI的图像生成器DALL-E,塞克斯顿表示,它们更成功地阻止了滥用。与之形成对比的是,制造儿童性虐待图像的生产者青睐的工具是由伦敦初创公司Stability AI开发的开源工具Stable Diffusion。Stable Diffusion于2022年夏季首次亮相时,一些用户迅速学会如何将其用于生成裸体和色情内容。尽管大多数内容描绘成年人,但通常是非自愿的,例如用于制作以名人为灵感的裸体照片。
Stability后来推出了新的过滤器,阻止不安全和不适当的内容,并使用Stability软件的许可证禁止非法使用。然而,用户仍然可以访问Stable Diffusion的旧版本,这在“绝大多数情况下是创作涉及儿童的淫秽内容的首选软件”,斯坦福互联网观察的首席技术专家大卫·蒂尔(David Thiel)表示。
互联网观察基金的报告承认,试图刑事化生成图像工具本身的尝试存在困难,即使这些工具被“微调”以产生滥用材料。塞克斯顿补充道:“你无法规定人们在他们的电脑上、在他们的卧室里做什么。这是不可能的。那么,怎样才能做到让他们不能使用公开可用的软件来创建这种有害内容呢?”大多数人工智能生成的儿童性虐待图像在美国、英国和其他地方的现行法律下都被视为非法,但尚不清楚执法机构是否有能力打击它们。
- 0000
- 0000
- 0000
- 0000
- 0001