Nvidia 的超级计算机可能会带来 ChatGPT 的新时代

Nvidia 的 CEO 展示公司的 Grace Hopper 电脑。
英伟达

Nvidia 刚刚宣布了一款可能改变 AI 未来的新型超级计算机。 DGX GH200配备了比我们现在熟悉的系统多近500倍的内存,很快就会落入谷歌、Meta和微软的手中。

目标?以前所未有的规模革新生成式人工智能、推荐系统和数据处理。像GPT这样的语言模型会受益吗?这对普通用户意味着什么?

描述 Nvidia 的 DGX GH200 需要使用大多数用户从未接触过的术语。例如,“Exaflop”,因为超级计算机提供 1 exaflop 的性能和 144 TB 的共享内存。 Nvidia 指出,这意味着内存比单个 Nvidia DGX A100 系统多近 500 倍。

让我们回到 1 exaflop 的数字并将其分解一下。一个 exaflop 等于每秒 quintillion 次浮点运算 (FLOPs)。相比之下,Nvidia 的RTX 4090在超频时可以达到大约 100 teraflops (TFLOPs)。一个 TFLOP 等于每秒一万亿次浮点运算。差异是惊人的,但当然,RTX 4090 不是数据中心 GPU。另一方面,DGX GH200 集成了大量此类高性能 GPU,这些 GPU 不属于消费类 PC 附近的任何地方。

Nvidia 的 Grace Hopper 超级芯片。
英伟达

该计算机由 Nvidia 的 GH200 Grace Hopper 超级芯片提供动力。总共有 256 个,得益于 Nvidia 的 NVLink 互连技术,它们都能够作为一个统一的系统一起工作,基本上创建了一个巨大的 GPU。

这里使用的 GH200 超级芯片也不需要 CPU 和 GPU 之间的传统 PCIe 连接。 Nvidia 表示他们已经配备了基于 ARM 的 Nvidia Grace CP,U 以及 H100 Tensor Core GPU。 Nvidia 在这里也进行了一些奇特的芯片互连,这次使用的是 NVLink-C2C。因此,据说处理器和显卡之间的带宽显着提高(高达 7 倍)并且更加节能(高达 5 倍)。

将 200 多个这样的芯片封装到一台超级计算机的单一动力室中已经足够令人印象深刻,但当您考虑到以前,一次只能将八个 GPU 与 NVLink 连接时,它会变得更好。从 8 个芯片跃升至 256 个芯片无疑给了 Nvidia 一些吹牛的资本。

现在,DGX GH200 将走向何方,它能为世界带来什么? Nvidia 正在构建自己的 Helios 超级计算机,作为推进其 AI 研发的一种手段。它将包括四个 DGX GH200 系统,所有系统都与 Nvidia 的 Quantum-2 InfiniBand 互连。它预计它会在今年年底上线。

Nvidia 也在与世界分享它的新进展,首先是 Google Cloud、Meta 和 Microsoft。目的大致相同——探索生成式 AI 工作负载。

谈到谷歌和微软,很难不想象 DGX GH200 可以推动BardChatGPTBing Chat的改进。

Nvidia CEO 展示公司的 Hopper 计算机。
英伟达

单个 DGX GH200 系统提供的强大计算能力使其非常适合推进复杂语言模型的训练。如果没有相关方之一的评论,很难说这到底意味着什么,但我们可以推测一下。

更强大的功能意味着更大的模型,意味着更细微和准确的文本以及更广泛的数据供他们训练。我们可能会看到更好的文化理解、更多的背景知识和更大的一致性。专门的人工智能聊天机器人也可能开始出现,在技术等领域进一步取代人类。

我们应该担心潜在的工作岗位流失,还是应该为这些超级计算机带来的进步感到兴奋?答案并不简单。有一件事是肯定的——Nvidia 的 DGX GH200 可能会撼动 AI 世界,而 Nvidia 刚刚在 AI 方面再次领先于 AMD


Posted

in

by

Tags: