Nvidia 首席执行官 Jensen Huang 以充满公告的主题演讲拉开了公司图形技术大会 (GTC) 的序幕。关键揭示的内容包括 Nvidia 的首款独立 CPU,名为 Grace,以及将于 2022 年晚些时候推出的下一代 Hopper 架构。
Grace CPU Superchip 是 Nvidia 有史以来的第一款独立 CPU,但它不会成为您下一台游戏 PC的核心。英伟达 在 2021 年发布了 Grace CPU ,但英伟达称其为 Superchip,它是新事物。它将两个 Grace CPU 放在一起,类似于Apple 的 M1 Ultra ,通过 Nvidia 的 NVLink 技术连接。
然而,与 M1 Ultra 不同的是,Grace Superchip 并不是为一般性能而设计的。 144 核 GPU 专为 AI、数据科学和对内存要求较高的应用程序而打造。尽管 Nvidia放弃了 400 亿美元收购该公司的出价,但 CPU 仍使用 ARM 内核。
除了 Grace Superchip,Nvidia 还展示了其下一代 Hopper 架构。据推测,这不是支持 RTX 4080 的架构。相反,它是为 Nvidia 的数据中心加速器而构建的。 Nvidia 在 H100 GPU 中首次推出该架构,它将取代Nvidia 之前的 A100 。
Nvidia 称 H100 为“世界上最先进的芯片”。它采用芯片制造商台积电的 N4 制造工艺制造,包含惊人的 800 亿个晶体管。似乎这还不够,它也是第一款支持 PCIe 5.0 和 HBM3 内存的 GPU。 Nvidia 表示,仅 20 个 H100 GPU 就可以“维持相当于整个世界的互联网流量”,这显示了 PCIe 5.0 和 HBM3 的强大功能。
客户将能够通过 Nvidia 的第四代 DGX 服务器访问 GPU,该服务器结合了 8 个 H100 GPU 和 640GB 的 HBM3 内存。据 Nvidia 称,这些机器提供 32 petaFLOPs 的 AI 性能,是上一代 A100 的六倍。
如果 DGX 不能提供足够的功率,Nvidia 还会提供其 DGX H100 SuperPod。这建立在 Nvidia去年出租其 SuperPod 加速器的基础上,让那些没有大规模数据中心预算的人能够利用 AI 的力量。这台机器结合了 32 个 DGX H100 系统,提供了 20TB 的巨大 HBM3 内存和 1 exoFLOP 的 AI 性能。
Nvidia 推出了新架构,配备了自己的 EOS 超级计算机,其中包括 18 个 DGX H100 SuperPod,总共 576 个 H100 GPU。启用该系统的是 Nvidia 的第四代 NVLink,它在大量 GPU 集群之间提供高带宽互连。
随着 GPU 数量的增加,Nvidia 表明上一代 A100 将趋于平缓。据该公司称,Hopper 和第四代 NVLink 没有这个问题。随着 GPU 的数量扩展到数千个,Nvidia 表示基于 H100 的系统可以提供比基于 A100 的系统快 9 倍的 AI 训练速度。
据 Nvidia 称,这种下一代架构提供了“改变游戏规则的性能优势”。尽管人工智能和高性能计算领域令人兴奋,但我们仍在热切期待 Nvidia 下一代 RTX 4080的发布,据传该产品将于今年晚些时候推出。