Meta 首次揭开其 AI 芯片的面纱 加强人工智能数据中心投资
社交网络巨头 Meta 为帮助其人工智能和视频处理任务建立了专门的计算机芯片,并首次向媒体透露了其内部芯片项目。本周早些时候,该公司向媒体披露了其 AI 技术基础设施投资的情况,并于周四举行了一个线上活动发布此消息。
由于 Meta 公司正在进行「效率年」改革,包括至少 21,000 人的裁员和大规模削减成本,因此投资者一直密切关注其对人工智能和相关数据中心硬件的投资。
虽然为公司设计和建造自己的计算机芯片费用昂贵,但基础设施副总裁 Alexis Bjorlin 告诉 CNBC,Meta 认为性能的提高将会证明这个投资是有价值的。该公司还一直在改革其数据中心设计,以更加注重节能技术,如液体冷却,以减少过多的热量。
其中一个新计算机芯片是 Meta 可扩展视频处理器 (MSVP),用于处理和传输视频到用户,同时降低能源需求。Bjorlin 表示,没有任何商业可用的产品能够像 Meta 期望的那样高效地处理和传递每天 40 亿个的视频。
另一个芯片是公司 Meta Training and Inference Accelerator(MTIA) 系列的第一个,旨在帮助完成各种特定于 AI 的任务。新的 MTIA 芯片专门处理「推理」,即已经训练好的 AI 模型进行预测或采取行动时的处理方式。
Bjorlin 说,新的 AI 推理芯片帮助支撑了 Meta 的一些推荐算法,用于在人们的新闻提要中显示内容和广告。她拒绝透露是谁在制造这个芯片,但一篇博客文章称该处理器是「在台积电 7 纳米制程下制造的」,表明芯片巨头台积电负责代工这项技术。
她表示,Meta 公司拥有「多代规划」的 AI 芯片系列,其中包括用于训练 AI 模型的处理器,但拒绝对新的推理芯片以外的细节进行评论。路透社此前曾报道,Meta 取消了一项 AI 推理芯片项目,开始另一项项目,该项目预计将于 2025 年左右推出,但 Bjorlin 拒绝对该报道发表评论。
她表示,由于 Meta 不像谷歌母公司 Alphabet 或微软等公司出售云计算服务,所以公司不觉得有必要公开谈论其内部数据中心芯片项目。
Bjorlin 表示:「如果你看一下我们分享的——我们开发的前两个芯片——它的确为外界提供了一些我们现在在内部做什么的视角。我们没有必要为此做广告,也不需要广告,但你知道,全世界都对此很感兴趣。」
Meta 工程副总裁 Aparna Ramani 表示,该公司的新硬件是为其自主开发的 PyTorch 软件有效工作而开发的,该软件已成为第三方开发者创建 AI 应用程序最常用的工具之一。
这些新硬件最终将用于推动虚拟现实和增强现实等元宇宙相关任务以及新兴的生成式人工智能领域,这通常指能够创建引人入胜的文本、图像和视频的 AI 软件。
Ramani 还表示,Meta 已经开发了一款基于生成式人工智能的编码助手,帮助公司的开发人员更轻松地创建和操作软件。这个新助手类似于微软的 GitHub Copilot 工具,后者是在与 AI 初创公司 OpenAI 的帮助下于 2021 年推出的。
此外,Meta 表示已经完成了其超级计算机 Research SuperCluster(RSC) 的第二阶段——最终扩建工程,该公司去年对其进行了详细介绍。Meta 使用这个包含 16,000 个英伟达 A100 GPU 的超级计算机,其中包括训练公司的 LLaMA 语言模型等其他用途。
Ramani 表示,Meta 继续坚信它应该为开源技术和 AI 研究做贡献,以推动技术领域的发展。该公司已经披露其最大的 LLaMA 语言模型 LLaMA 65B 包含 650 亿个参数,并在 1.4 万亿个 tokens 中进行了训练,这些 tokens 是用于 AI 培训的数据。
而 OpenAI 和谷歌等公司并没有公开披露类似的大语言模型指标,尽管本周有报道称,谷歌的 PaLM 2 模型是在 3.6 万亿个 tokens 上进行训练的,包含 3400 亿个参数。
Meta 不同于其他技术公司,它将其 LLaMA 语言模型公开给研究人员以便他们学习这项技术,在此之后该语言模型被泄露到了更广泛的公众,导致许多开发人员构建了内含该技术的应用程序。
Ramani 表示,Meta 仍在「仔细考虑我们所有的开源合作伙伴关系,当然,我想重申我们的理念仍是开放科学和交叉合作。」
- 0000
- 0000
- 0001
- 0000
- 0000