专家称:OpenAI 视频生成器Sora可能会助长虚假宣传和偏见
划重点:
- 🤖 新发布的 OpenAI 视频生成工具 Sora 可以根据用户提示制作长达一分钟的视频。
- 🛡️ 专家担心,这种视频生成器可能加剧互联网不实信息和政府宣传,使真假内容之间的界限更加模糊。
- 🔒 OpenAI 已经采取措施防止滥用 Sora,但专家仍担心其可能产生深度伪造视频。
OpenAI 最新推出的视频生成工具 Sora 展示了一个阳光普照的达尔马提亚狗蹑手蹑脚地走过窗台、一场中国新年游行席卷城市街道、一名考古学家在沙漠沙地上挖掘出一把椅子。这些视频是在线发布的,但实际上并没有发生。它们构成了 OpenAI 最新推出的视频生成工具 Sora 公开提供的第一个作品。
Sora 可以根据用户提示制作长达一分钟的视频,就像 ChatGPT 会以文字回复、Dall-E 会提供图像一样。目前,视频生成器正在一组产品测试人员中使用,但尚未向公众开放,OpenAI 在周四的一份声明中表示。
专家表示,这些产品有望改进和简化视频叙事,但也可能加剧互联网不实信息,增强政府宣传,使网络上已经模糊的真假内容之间的界限更加模糊。
与此同时,人工智能生成的视频可能会强化从生成这些内容的训练材料中获取的仇恨或偏见观点,他们补充说。专家对 OpenAI 采取的措施以防止滥用 Sora 表示关注。
不过,OpenAI 指向了一篇网页,详细介绍了公司为防止 Sora 滥用所采取的措施。根据公司网站的说法,OpenAI 计划采取一些重要的安全措施,以避免 Sora 的滥用。
专家HIA表示,难以评估尚未向普通公众发布的演示产品。然而,他们对视频生成器的滥用机会和实施完全有效保护措施的挑战表示担忧。
AI 生成的内容的风险在近几周内引起了广泛关注。今年1月底,一组虚假的、涉及泰勒・斯威夫特 (Taylor Swift) 的 AI 生成色情图片在社交媒体上走红,获得了数百万次浏览。上个月,一条冒充美国总统乔・拜登 (Joe Biden) 声音的虚假电话呼叫劝阻人们不要在新罕布什尔州初选中投票。
专家赞扬了 OpenAI 为阻止 Sora 的滥用所采取的措施。他们警告说,这种产品可能具有创作深度伪造视频的能力,并且很难防止这样的视频出现。随着 OpenAI 为 Sora 实施的安全措施,如检测分类器和数字水印,专家对其表示肯定,但也提醒视频可能会被复制或更改以移除标签。人们将设法规避设置的防护栏,这将成为一场军备竞赛。
- 0000
- 0000
- 0000
- 0001
- 0000