Meta 宣布推出用于视频生成和图像编辑的 Emu Video 和 Emu Edit 两款最新人工智能模型
社交媒体巨头 Meta 公司于 11 月 16 日在其博客文章中宣布推出最新的人工智能(AI)模型,用于内容编辑和生成。
这两款 AI 驱动的生成模型,分别为 Emu Video 和 Emu Edit,代表了行业的一大进步。Emu Video 利用 Meta 之前的 Emu 模型,能够基于文本和图像输入生成视频剪辑。而 Emu Edit 则专注于图像处理,承诺在图像编辑方面提供更高的精确度。
这些模型目前仍处于研究阶段,但 Meta 表示,初步结果显示出对创作者、艺术家和动画师等的潜在应用价值。
据 Meta 博客文章所述,Emu Video 采用了「分解式」训练方法,将训练过程分为两步,使模型能够对不同输入做出响应:「我们将过程分成两步:首先根据文本提示生成图像,然后根据文本和生成的图像生成视频。这种『分解式』或分步的视频生成方法让我们能够高效地训练视频生成模型。」该模型还可以基于文本提示「动画化」图像。Meta 称,Emu Video 不依赖于「深层级模型串联」,仅使用两个扩散模型就能以 16 帧每秒的速度生成 512x512 像素、四秒长的视频。
专注于图像处理的 Emu Edit,将使用户能夠进行去除或添加图像背景、执行色彩和几何变换,以及对图像进行局部和全局编辑。
Meta 在其声明中指出:「我们认为,主要目标不应仅仅是产生一个『可信』的图像。相反,模型应专注于精确地改变与编辑请求相关的像素。」该公司声称其模型能够精确地遵循指令:「例如,在棒球帽上添加『Aloha!』文字时,帽子本身应保持不变。」
Meta 使用计算机视觉任务训练了 Emu Edit,数据集包括 1000 万张合成图像,每张图像都有输入图像、任务描述以及目标输出图像。「我们相信这是迄今为止同类中最大的数据集,」公司表示。
Meta 最新发布的 Emu 模型是用 11 亿条数据训练的,包括 Facebook 和 Instagram 用户分享的照片和标题,Meta 首席执行官马克·扎克伯格在 9 月的 Meta Connect 活动中透露。
监管机构正在密切关注 Meta 基于 AI 的工具,导致这家科技公司采取了谨慎的部署方式。Meta 最近透露,它不允许政治活动和广告商使用其 AI 工具在 Facebook 和 Instagram 上创建广告。然而,该平台的一般广告规则并未特别涉及 AI。
- 0002
- 0000
- 0001
- 0000
- 0000