在GTC 2022会议期间,Nvidia 谈到了使用人工智能和机器学习来使未来的显卡比以往任何时候都更好。
由于该公司选择优先考虑 AI 和机器学习 (ML),其中一些进步已经在即将推出的下一代 Ada Lovelace GPU 中找到了途径。

Nvidia 的首席科学家兼研究高级副总裁Bill Dally分享了 Nvidia 在下一代显卡中的 AI 和 ML 的宏伟计划。他谈到了 Nvidia 的研发团队,他们如何利用 AI 和机器学习 (ML),以及这对下一代 GPU 意味着什么。
简而言之,使用这些技术对英伟达显卡来说只能是好事。 Dally 讨论了 GPU 设计的四个主要部分,以及使用 AI 和 ML 可以显着提高 GPU 性能的方式。
目标是提高速度和效率,Dally 的示例讨论了如何使用 AI 和 ML 将标准 GPU 设计任务从三小时缩短到三秒。
据称,这可以通过优化最多四个通常需要大量时间且非常详细的流程来实现。
这指的是监控和映射电源电压降、通过寄生预测预测错误、标准单元迁移自动化以及解决各种路由挑战。使用人工智能和机器学习可以帮助优化所有这些流程,从而在最终产品中获得重大收益。
映射潜在的电压下降有助于 Nvidia 跟踪下一代显卡的功率流。根据 Dally 的说法,从使用标准工具切换到专门的 AI 工具可以大大加快这项任务,因为新技术可以在几秒钟内执行此类任务。
Dally 表示,使用 AI 和 ML 绘制电压降图可以将准确度提高多达 94%,同时还可以极大地提高这些任务的执行速度。

新芯片中的数据流是影响新显卡性能的重要因素。因此,Nvidia 使用图神经网络 (GNN) 来识别数据流中可能存在的问题并快速解决它们。
通过使用 AI 进行的寄生预测是 Nvidia 看到改进的另一个领域,指出准确性有所提高,模拟错误率降至 10% 以下。
Nvidia 还成功地实现了芯片标准单元迁移过程的自动化,减少了大量停机时间并加快了整个任务。有了这个,92% 的单元库是通过使用没有错误的工具迁移的。
该公司计划未来专注于人工智能和机器学习,将其五个实验室专门用于研究和设计这些领域的新解决方案。 Dally 暗示,我们可能会在 Nvidia 的新 7nm 和 5nm 设计中看到这些新发展的初步成果,其中包括即将推出的 Ada Lovelace GPU。这是Wccftech最先报道的。
下一代显卡(通常称为RTX 4000 )将非常强大(功率要求与之相匹配),这已不是什么秘密。使用人工智能和机器学习来进一步开发这些 GPU 意味着我们可能很快就会拥有真正的强者。