首页站长资讯戴尔与Nvidia共同打造AI工厂,扩大与Hugging Face、Meta和微软的合作
22715

戴尔与Nvidia共同打造AI工厂,扩大与Hugging Face、Meta和微软的合作

站长网2024-05-22 00:48:530

划重点:

- 🚀 戴尔技术通过 AI 工厂战略与 Nvidia 等伙伴合作,推动企业采用 AI 的简化、安全化和经济化。

- 🤝 戴尔技术与 Hugging Face、Meta 和微软等合作伙伴不断扩大合作,推动企业 AI 能力的增长。

- 🌐 戴尔技术致力于使企业能够轻松评估和实施本地 AI 技术,以满足企业的特定需求。

戴尔技术在年度戴尔技术全球峰会上宣布了一系列新的生成式人工智能(AI)能力。其中,戴尔 AI 工厂是公司的新战略,旨在帮助企业更简单、更安全、更经济地采用 AI。这一方案包括与 Nvidia 的合作,扩大了两家公司于2023年7月宣布的合作解决方案。戴尔 AI 工厂与 Nvidia 集成了戴尔和 Nvidia 的硬件和软件,以帮助企业实施生成式 AI 项目。戴尔还推出了新的硬件,以支持最近宣布的 Nvidia Blackwell GPU。

图源备注:图片由AI生成,图片授权服务商Midjourney

此外,戴尔还加强了与 Hugging Face 的合作,该合作最初于2023年11月宣布,并推出了更多的企业集成。与 Meta 的合作也是如此,两家公司正在建立在 Llama2合作基础上的 Llama3合作。

尽管云端有许多生成式 AI 选项,但戴尔的总体目标是使企业能够尽可能轻松地评估生成式 AI 并在本地实施技术。戴尔技术高级副总裁 Varun Chhabra 告诉 VentureBeat:“我们的目标是帮助客户尽快实现其 AI 工作负载的价值。”

戴尔 AI 工厂与 Nvidia 超越了去年的 Project Helix 合作。戴尔技术全球峰会上一年前,两家公司宣布了 Project Helix,旨在帮助组织建立和部署生成式 AI。在过去一年里,企业生成式 AI 领域发生了很多变化,戴尔 AI 工厂与 Nvidia 部分反映了这些变化。

Nvidia 企业计算副总裁 Manuvir Das 告诉 VentureBeat:“当我们推出 Project Helix 时,主要集中在训练方面。现在,在推理方面以及实际使用模型方面有了更多的内容。” 随着对推理和 RAG(Retrieval Augmented Generation)用例的需求转变,最近宣布的 Nvidia NIMs(Nvidia 推理微服务)方法现在也与戴尔合作伙伴关系。Das 解释说,NIMs 通过将部署问题交给开发人员以外的人来帮助解决。当 NIMs 容器放置在服务器上时,它会确定如何设置环境以高效、安全地运行 AI 模型,并为硬件提供适当的优化。这使开发人员只需编写应用程序,而不必担心部署和执行模型的底层细节。

戴尔和 Nvidia 加速企业 RAG。与最初宣布 Project Helix 时相比,企业希望连接数据的方式发生了变化。在过去一年中,RAG 方法已成为标配,它将现有的数据存储与生成式 AI 部署相结合。新的戴尔 RAG 加速器服务旨在帮助开发人员在戴尔硬件上构建和测试 RAG 用例。该服务利用戴尔 Precision 工作站和 Nvidia AI 工作台开发平台。

Das 解释说,Nvidia NeMo Retriever 技术也是其中的一部分。NeMo Retriever 本身不包含向量数据库,而 RAG 需要向量数据库。Das 表示,NeMo Retriever 具有可插入模型,支持各种向量数据库,组织可以选择将其部署为 RAG 应用程序的一部分。

戴尔继续与合作伙伴合作,扩大其生成式 AI 能力。戴尔自2023年11月以来一直与 Hugging Face 合作,以将开放模型带给企业用户,并不断扩大合作范围。新的戴尔企业中心旨在简化企业使用 Hugging Face 模型的过程。该服务精选了 Hugging Face 的最佳模型,旨在简化本地部署 AI 模型的程。

此外,戴尔还继续与 Meta 合作,为 Meta 的 Llama3模型提供部署指南和性能测试,就像去年为 Llama2做的一样。此外,戴尔还与微软合作,在戴尔基础设施上提供 Azure AI 解决方案。新的戴尔适用于 Microsoft Azure AI 服务的 AI 解决方案使组织能够将 Microsoft Azure AI 能力与在 Azure 中使用的相同 API 在本地使用。

Chhabra 表示:“这使组织能够将各种 Azure AI 服务,如语言、翻译、语音、文件智能和视觉等,更接近大多数位于本地的数据。”

0000
评论列表
共(0)条