AI加速器产品提供商Celestial AI获得1亿美元B轮融资 共筹集1.65亿美元
日前,人工智能加速器产品提供商Celestial AI宣布成功完成B轮融资,为其Photonic Fabric技术平台筹集了1亿美元。此次投资由IAG Capital Partners、Koch Disruptive Technologies(KDT)和淡马锡旗下的Xora Innovation基金领投。
其他参与投资者者包括三星Catalyst、Smart Global Holdings(SGH)、Porsche Automobil Holding SE、The Engine Fund、ImecXpand、M Ventures和Tyche Partners。
据Celestial AI表示,他们的Photonic Fabric平台在光学连接性能方面取得了重大突破,超越了现有技术。该公司总共从种子融资到B轮融资共筹集了1.65亿美元。
先进的人工智能(AI)模型,如广泛使用的ChatGPT和推荐引擎的GPT-4,需要指数级增加的内存容量和带宽。然而,云服务提供商(CSP)和超大规模数据中心面临由内存扩展和计算之间的相互依赖引起的挑战。电气互连的局限,如带宽受限、高延迟和高功耗,阻碍了AI业务模型的发展和AI的进步。
为了解决这些挑战,Celestial AI与超大规模计算、AI计算和存储提供商合作,开发了Photonic Fabric。这种光学互连技术设计用于分散式的百亿亿次计算和内存集群。该公司声称,其专有的光计算互连(OCI)技术可以实现可扩展的数据中心内存解聚,并实现加速计算。
Celestial AI的首席执行官Dave Lazovsky表示:“未来的关键问题是大语言模型(LLMs)和推荐引擎工作负载的内存容量、带宽和数据移动(芯片与芯片之间的互连)。我们的Photonic Fabric技术允许您将光子学直接集成到硅晶片中。一个关键优势是我们的解决方案可以将数据传递到硅晶片上的任何点,以进行计算。竞争解决方案如CPO(Co-Packaged Optics)无法做到这一点,因为它们只能将数据传递到晶片边缘。”
Lazovsky声称,Photonic Fabric通过提供显著增加的带宽(1.8Tbps/mm²)和纳秒级的延迟成功解决了挑战性的内存墙问题。因此,该平台提供了完全基于光的计算与计算、计算与内存之间的连接。Lazovsky表示,随着数据中心内传输的数据量增加,数据传输速率也必须提高。他解释说,随着这些速率的增加,电气互连会遇到诸如信号保真度损失和有限带宽的问题,无法随数据增长而扩展,从而限制了整体系统吞吐量。
Celestial AI表示,Photonic Fabric的低延迟数据传输促进了与传统电气互连相比连接和解聚更多服务器的能力。这种低延迟还使得延迟敏感的应用可以利用远程内存,这在传统电气互连中以前是无法实现的。
Celestial AI旨在简化大语言模型(如GPT-4)、PaLM和深度学习推荐模型(DLRM)等企业计算。这些模型的参数数量范围从1000亿到1万亿以上。
Lazovsky解释说,由于AI处理器(GPU、ASIC)具有有限的高带宽内存(32GB到128GB),目前企业需要连接数百到数千个这些处理器来处理这些模型。然而,这种方法会降低系统效率并增加成本。他补充说:“通过提高每个处理器的可寻址内存容量和高带宽,Photonic Fabric允许每个处理器存储和处理更大的数据块,减少了所需处理器的数量。提供快速的芯片与芯片连接允许连接的处理器更快地处理模型,提高吞吐量同时降低成本。”
Celestial AI表示,本轮融资所筹集的资金将用于加速Photonic Fabric技术平台的产品化和商业化,通过扩大Celestial AI的工程、销售和技术营销团队。Lazovsky还称:“由于大语言模型(LLMs)的增长以及它对当前数据中心架构的压力,需求迅速增加,需要光学连接来支持从通用计算数据中心基础架构向加速计算的转变。我们预计到2023年底,员工人数将增加约30%,达到130人。”
- 0000
- 0000
- 0000
- 0000
- 0000