(资料图片)
NVIDIA是目前提供 CPU 的领导者,这些 CPU 用于微软和其他公司的大规模生成式 AI 服务器。今天,NVIDIA 宣布推出下一代版本的 NVIDIA GH200 Grace Hopper 生成式 AI 平台,该平台采用新型(高带宽内存 3 E)处理器,该处理器的速度将比当前基于 Grace Hopper 的服务器快得多。
NVIDIA在 SIGGRAPH 图形开发者大会上宣布了这一消息。该公司表示,与当前一代 Grace Hopper 平台相比,新型 Grace Hopper 芯片与 HBM3e 处理器的组合将具有三倍以上的内存容量和三倍的带宽。
英伟达补充道:
新平台使用 Grace Hopper Superchip,它可以通过 NVIDIA NVLink 与其他超级芯片连接,使它们能够共同部署用于生成 AI 的巨型模型。这种高速、一致的技术使 GPU 能够完全访问 CPU 内存,在双配置时提供组合的 1.2TB 快速内存。
新的 HBM3e 内存预计比当前的 HBM3 内存快 50%。NVIDIA 表示它应该提供高达 10TB/秒的组合带宽。
NVIDIA 首席执行官黄仁勋 (Jensen Huang) 表示:
全新 GH200 Grace Hopper Superchip 平台提供了卓越的内存技术和带宽,以提高吞吐量、连接 GPU 来聚合性能而不妥协的能力,以及可以在整个数据中心轻松部署的服务器设计。
早在 5 月份的 Computex 上,NVIDIA 就表示最新一代 GH200 Grace Hopper 芯片将于 2023 年晚些时候全面投入生产。新发布的下一代 Grace Hopper 芯片和服务器距离发布还有很长的路要走,NVIDIA 预测系统构建商将在 2024 年第二季度开始交付采用这一新平台的服务器。