围绕OpenAI 的 ChatGPT 的持续热议从未减弱。随着微软现在使用相同的技术为其全新的Bing Chat提供动力,可以肯定地说 ChatGPT 可能会在相当长的一段时间内继续保持这种上升趋势。这对 OpenAI 和微软来说是个好消息,但它们并不是唯一受益的两家公司。
根据一份新报告,英伟达数据中心显卡的销量可能即将飙升。随着 ChatGPT 的商业化,OpenAI 可能需要多达 10,000 个新 GPU 来支持不断增长的模型——而 Nvidia 似乎是最有可能的供应商。
研究公司TrendForce今天分享了一些有趣的估计,其中最有趣的部分与 ChatGPT 的未来有关。据 TrendForce 称,为 ChatGPT 提供支持的 GPT 模型很快将需要大幅增加硬件以扩大开发规模。
“用于开发这种自回归语言模型的训练参数数量从 2018 年的约 1.2 亿增加到 2020 年的近 1800 亿,”TrendForce 在其报告中表示。虽然它没有分享任何 2023 年的估计,但可以肯定地假设这些数字只会在技术和预算允许的范围内继续上升。
该公司声称,GPT 模型在 2020 年需要多达 20,000 张显卡来处理训练数据。随着它的不断扩展,这一数字预计将增加到 30,000 张以上。这对 Nvidia 来说可能是个好消息。
这些计算基于 OpenAI 将使用 Nvidia 的 A100 GPU 来为语言模型提供动力的假设。这些超级强大的显卡非常昂贵——每块大约在 10,000 到 15,000 美元之间。它们目前也不是 Nvidia 的顶级数据中心卡,因此 OpenAI 可能会选择更新的 H100 卡,该卡的性能应该是 A100 的三倍。这些 GPU 的价格大幅上涨,一张卡的价格约为 30,000 美元或更多。
数据中心 GPU 市场不仅包括英伟达——英特尔和 AMD 也销售 AI 加速器。然而, Nvidia 通常被视为 AI 相关任务的首选解决方案,因此如果 OpenAI 决定扩大规模,它有可能获得一笔有利可图的交易。
如果 Nvidia 确实最终提供了高达 10,000 个 GPU 来为 ChatGPT 供电,游戏玩家是否应该担心?这取决于。 OpenAI 所需的显卡与 Nvidia 为游戏玩家提供的最佳 GPU无关,因此我们在那里是安全的。然而,如果 Nvidia 最终将部分生产转移到数据中心 GPU,我们可能会看到消费类显卡供应有限。实际上,影响可能并没有那么糟糕——即使 10,000 个 GPU 的预测得到验证,Nvidia 也不需要立即交付它们。