Nvidia 构建了一个巨大的双 GPU 来为 ChatGPT 等模型提供动力

Nvidia 的半年度GPU 技术大会 (GTC)通常侧重于 AI 的进步,但今年,Nvidia 以一系列新 GPU 响应ChatGPT的大规模崛起。其中最主要的是 H100 NVL,它将 Nvidia 的两个 H100 GPU 拼接在一起,以部署像 ChatGPT 这样的大型语言模型 (LLM)。

H100 不是新的 GPU。 Nvidia 一年前在 GTC 上宣布了它,展示了其 Hopper 架构,并承诺在各种任务中加速 AI 推理。据说,具有 94GB 海量内存的新 NVL 模型在大规模部署 LLM 时效果最佳,与上一代 A100 相比,推理速度提高了 12 倍。

Nvidia 的 H100 NVL 安装在服务器中。
英伟达

这些 GPU 是 ChatGPT 等模型的核心。 Nvidia 和微软最近透露,数以千计的A100 GPU 用于训练 ChatGPT ,这是一个已经酝酿了五年多的项目。

H100 NVL 通过在 Nvidia 高带宽 NVLink 互连上组合两个 H100 GPU 来工作。当前的 H100 GPU 已经可以做到这一点——事实上,您可以通过 NVLink 将多达 256 个 H100 连接在一起——但这个专用单元专为较小的部署而构建。

这是一款为企业打造的产品,所以不要指望在您当地的 Micro Center 的货架上看到 H100 NVL。然而,Nvidia 表示,企业客户有望在今年下半年左右看到它。

除了 H100 NVL 之外,Nvidia 还发布了 L4 GPU,该 GPU 专门用于为 AI 生成的视频提供动力。 Nvidia 表示,它处理 AI 生成的视频的能力是 CPU 的 120 倍,能效提高了 99%。除了生成 AI 视频外,Nvidia 表示 GPU 具有视频解码和转码功能,可用于增强现实。

Nvidia 表示,Google Cloud 是首批集成 L4 的公司之一。谷歌计划在今天晚些时候通过其 Vertex AI 平台向客户提供 L4 实例。 Nvidia 表示,GPU 将在稍后从合作伙伴处提供,包括联想、戴尔、华硕、惠普、技嘉和惠普等。


Posted

in

by

Tags: