英伟达发布AI Enterprise5.0,助力企业生成式AI开发
划重点:
🚀 英伟达发布AIEnterprise5.0,包括微服务和软件容器,用于生成式AI应用部署和加速计算。
🔍 NVIDIA AI Enterprise5.0涵盖广泛的微服务,包括NVIDIA NIM和NVIDIA CUOpt,优化AI模型推理并支持GPU加速。
💼 AI Enterprise5.0可帮助用户从安全、可投入生产且性能优化的软件中受益,可在数据中心、云端、工作站或网络边缘部署。
英伟达正式发布了AI Enterprise5.0,这是一项旨在帮助企业加速生成式人工智能(AI)开发的重要产品。AI Enterprise5.0包含了英伟达微服务和可下载的软件容器,这些组件可用于部署生成式AI应用程序和加速计算。值得一提的是,这一产品已经被Uber等知名客户所采用。
随着开发人员转向微服务作为构建现代企业应用程序的有效方式,NVIDIA AI Enterprise5.0提供了广泛的微服务。其中包括NVIDIA NIM和NVIDIA CUOpt,这些微服务针对生产中部署AI模型进行了优化,并且支持GPU加速,为用户提供了更高效的推理过程。NVIDIA推理软件,包括Triton Inference Server、TensorRT和TensorRT-LLM,为NIM提供了支持,从而将部署时间从几周缩短到几分钟。这些微服务不仅提供了行业标准的安全性和可管理性,还与企业级管理工具兼容,为企业带来了更便捷的部署体验。
此外,NVIDIA CUOpt作为一种GPU加速的AI微服务,不仅创造了路线优化的世界记录,还能够支持动态决策,从而降低成本、时间和碳足迹。作为CUDA-X微服务之一,CUOpt在帮助各行业将人工智能投入生产方面发挥着重要作用。
未来,AI Enterprise5.0还将引入更多功能。例如,NVIDIA RAG LLM操作员(目前处于早期访问阶段)将有助于将副驾驶和其他使用检索增强生成的生成式AI应用程序从试点转移到实际应用落地,而无需重写任何代码。这一功能的引入将进一步推动企业在AI应用领域的发展。
无论用户通过何种方式访问,AI Enterprise5.0都能为他们带来诸多好处。该产品不仅可以从安全、可投入生产且性能优化的软件中受益,还能够实现灵活部署,可以部署在数据中心、云端、工作站或网络边缘,满足不同场景下的需求。
- 0001
- 0000
- 0000
- 0004
- 0000