Bing AI图片生成器拒绝生成女性的逼真图像,称其“不安全”
划重点:
1. Bing的AI Image Creator在生成男性逼真图像方面表现出色,但在生成女性图像时却拒绝,称其不符合内容政策。
2. 用户发现Bing的AI存在性别相关的奇怪问题,生成女性图像经常被阻止,可能与训练数据中女性被性化有关。
3. 微软回应称AI的拒绝是出于过度防护,但随后放宽了对女性图像的生成限制。
微软的Bing AI Image Creator最近引起了关注,因为它似乎拒绝生成逼真的女性图像,声称这些图像不符合其内容政策。这一现象引发了许多讨论,特别是关于AI系统如何处理性别相关问题。
一位名为 u/Arceist_Justin 的用户要求Bing的AI生成“男性的逼真图像”时,它迅速生成了多个看起来非常逼真的男性图像。但当用户要求生成“女性的逼真图像”时,AI系统却拒绝了这一请求,并表示这违反了其内容政策,称检测到不安全内容。这一情况引起了疑虑,因为请求中并没有包含任何性别相关的形容词,也没有提到女性的外貌特征。
有人认为,AI系统的训练数据可能是导致这一问题的原因。由于互联网上存在大量的性化和不适当内容,AI系统可能将“女性”这个词与性化联系在一起,因此拒绝生成女性图像。这一观点认为,互联网中女性经常被性化,而生成式AI工具是基于数据进行预测的,如果训练数据中包含大量性化或色情内容的女性图像,那么AI系统可能会默认将涉及女性的请求与性有关。
微软的一位发言人表示,AI拒绝生成女性图像是出于过度防护,因为在该工具刚推出时,用户发现可以轻松生成问题图像,包括侵犯版权的卡通角色参与恐怖活动的图像。因此,微软加强了AI的防护措施,这导致了一些不必要的内容违规情况。微软表示,他们致力于改进技术的准确性,并将不断完善内容过滤器。
不过,随着可公开使用的生成式AI工具的新浪潮,这一问题可能只是开始。互联网是现实世界的扭曲镜像,而生成式AI模型则是这些夸张的具体体现。因此,需要在传播深度伪造色情内容和将女性消失之间找到平衡点。
- 0000
- 0000
- 0000
- 0000
- 0006