在大模型、生成式AI带动下,AI正加速融入千行百业,而且在AI自身技术与能力演进的同时,也带来了业务模式的创新。AI浪潮也导致市场对于AI智算能力需求的快速增长,与需求多样化扩展。再加上企业对于总体拥有成本(TCO)与能效的关注,作为关键底层的数字基础设施也需要加速演进。
因此,Supermicro提供的全新产品及解决方案不仅满足了AI推理训练等工作负载对于算力的迫切需求,同时凭借快速部署、灵活拓展,以及液冷解决方案等提升,降低了企业、数据中心的能耗及运维等成本。
Supermicro总裁兼首席执行官梁见后表示:“Supermicro在打造与部署具有机柜级液冷技术的AI解决方案方面持续领先业界。数据中心的液冷配置设计可几近免费,并通过能持续降低用电量的优势为客户提供额外价值。我们的解决方案针对NVIDIAAIEnterprise软件优化,满足各行各业的客户需求,并提供世界规模级效率的全球制造产能。因此我们得以缩短交付时间,更快提供搭配NVIDIAHGXH100和H200,以及即将推出的B100、B200和GB200解决方案的可立即使用型液冷或气冷计算丛集。从液冷板到CDU乃至冷却塔,我们的机柜级全方位液冷解决方案最大可以降低数据中心40%的持续用电量。”
NVIDIA创始人兼首席执行官黄仁勋表示:“生成式AI正在推动整个计算堆栈的重置,新的数据中心将会通过GPU进行计算加速,并针对AI优化。Supermicro设计了顶尖的NVIDIA加速计算和网络解决方案,使价值数兆美元的全球数据中心能够针对AI时代优化。”
除了高算力、高能效外,Supermicro与NVIDIA的合作及服务整合,可简化运维、快速部署,实现降本增效。其云原生AISuperCluster使实时存取的云端便利性和可移植性之间得以连结,并通过与NVIDIAAIEnterprise、NIM微服务整合,让任何规模的AI项目从评估测试阶段无缝顺畅地进行到实际作业阶段。这提供了能在任何地方运行并安全管理数据的灵活性,包括自建系统或本地大型数据中心。
Supermicro的SuperCluster解决方案针对LLM训练、深度学习以及大规模与大批量推理优化。Supermicro的L11和L12验证测试及现场部署服务可为客户提供无缝顺畅体验。客户收到即插即用的可扩充单元后即可在数据中心轻松部署,进而更快取得效益。