英国学生使用人工智能制作不当儿童图像引发警示
**划重点:**
1. 🤖 学生使用人工智能制作涉嫌儿童性虐待图像。
2. 😨 图像逼真程度令人震惊,有专家呼吁采取紧急行动。
3. 🚫 专业机构建议学校紧急采取措施阻止儿童性虐待材料的传播。
近日,英国一组关注儿童虐待和技术的专家警告称,英国学生正在利用人工智能(AI)制作不当儿童图像。
据英国网络安全中心(UK Safer Internet Centre,简称UKSIC)主管Emma Hardy表示,一些学校首次报告称学生正在使用AI生成技术创作合法构成儿童性虐待的图像。这些图像的逼真程度令人“可怕”。
图源备注:图片由AI生成,图片授权服务商Midjourney
“我们看到的图像质量可与全国各地学校每年拍摄的儿童专业照片相媲美,” Hardy表示,她同时还担任互联网观察基金会的传播总监。
AI生成的儿童形象逼真,有时候可以辨认出这些儿童是之前受到性虐待的受害者。“必须警告儿童,这可能在互联网上传播,并最终被陌生人和性侵者看到。这项技术的滥用潜力令人恐惧,” 她补充道。
UKSIC,一家儿童保护组织,表示学校需要紧急采取措施,建立更好的阻止儿童虐待材料传播的系统。“我们看到学生制作这些图像的报告不应该令人惊讶。当新技术,如AI生成器,变得更加易于公众获取时,应该预期会出现这类有害行为,” UKSIC主管David Wright表示。
尽管案例数量较少,但我们正处于初步阶段,现在需要采取措施,以免学校不堪重负,问题不断扩大。” 他补充道。在英国,无论是AI生成的还是摄影的儿童性虐待图像,甚至是卡通或其他不够逼真的描绘,都是非法的,制作、拥有和传播都是违法的。
上个月,互联网观察基金会警告称,AI生成的儿童性虐待图像“威胁要淹没互联网”,许多现在的图像如此逼真,以至于即使对训练有素的分析师来说也难以区分真实图像。
- 0000
- 0000
- 0003
- 0000
- 0000