首页站长资讯​Meta 计划于今年部署自家 AI 芯片,减少对 Nvidia GPU 的依赖
18527

​Meta 计划于今年部署自家 AI 芯片,减少对 Nvidia GPU 的依赖

站长网2024-02-02 11:19:240

划重点:

👉 Meta 计划在今年部署定制的第二代 AI 芯片,名为 "Artemis",用于其数据中心。

👉 新芯片将用于运行 AI 模型的 "推断",旨在减少对 Nvidia 芯片的依赖和控制 AI 工作负载的成本。

👉 Meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 Nvidia H100GPU,总共约有60万个 GPU 用于运行和训练 AI 系统,使得 Meta 成为 Nvidia 除微软外最大的公开客户。

社交媒体巨头 Meta 计划于今年在其数据中心部署一款定制的第二代 AI 芯片,代码名为 "Artemis"。

据路透社报道,新芯片将用于 Meta 的数据中心中的 "推断",即运行 AI 模型的过程。该举措的目标是减少对 Nvidia 芯片的依赖,并控制 AI 工作负载的成本。此外,Meta 还在其服务中提供生成式 AI 应用,并正在训练名为 Llama3的开源模型,旨在达到 GPT-4的水平。

图源备注:图片由AI生成,图片授权服务商Midjourney

Meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 Nvidia H100GPU,总共约有60万个 GPU 用于运行和训练 AI 系统。这使得 Meta 成为 Nvidia 除微软外最大的公开客户。然而,随着更强大和更大规模的模型,AI 工作负载和成本不断增加。除了 Meta 外,OpenAI 和微软等公司也试图通过专有 AI 芯片和更高效的模型来打破这种成本螺旋。

在2023年5月,Meta 首次推出了名为 Meta Training and Inference Accelerator(MTIA)的新芯片系列,旨在加速并降低运行神经网络的成本。据官方公告,第一款芯片预计将在2025年投入使用,并在当时已在 Meta 的数据中心进行测试。据路透社报道,Artemis 已经是 MTIA 的更高级版本。

Meta 的这一举措表明他们希望通过自家 AI 芯片的部署来降低对 Nvidia 芯片的依赖,以及控制 AI 工作负载的成本。他们计划在今年将 Artemis 芯片投入生产,并表示:"我们认为我们自主开发的加速器与市面上可购买的 GPU 在 Meta 特定工作负载上提供了性能和效率的最佳组合。" 这一举措将为 Meta 带来更大的灵活性和自主性,同时也有望降低 AI 工作负载的成本。

0000
评论列表
共(0)条