Nvidia 刚刚发布了 AI Workbench,它承诺让创建生成式 AI 变得更加容易和易于管理。该工作区将允许开发人员在各种 Nvidia AI 平台(包括 PC 和工作站)上开发和部署此类模型。我们是否会被更多的人工智能内容淹没?也许不是,但听起来 AI Workbench 确实会让整个过程变得更加平易近人。
Nvidia 在公告中指出,目前有数十万个预训练模型可用;然而,定制它们需要时间和精力。这就是工作台发挥作用的地方,它简化了流程。开发人员现在能够利用每一个必要的企业级模型,以最小的努力定制和运行生成式人工智能。 Workbench 工具支持来自 Nvidia 自己的 AI 平台的各种框架、库和 SDK,以及 GitHub 和 Hugging Face 等开源存储库。
一旦定制,模型就可以轻松地在多个平台上共享。运行配备 Nvidia RTX 显卡的 PC 或工作站的开发人员将能够在本地系统上使用这些生成模型,而且在必要时还可以扩展到数据中心和云计算资源。
Nvidia 企业计算副总裁 Manuvir Das 表示:“Nvidia AI Workbench 为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这些应用程序在现代商业中变得越来越重要。”
Nvidia 还宣布了 Nvidia AI Enterprise 软件平台的第四次迭代,旨在提供采用和定制生成式 AI 所需的工具。这分为多种工具,包括 Nvidia NeMo,这是一个云原生框架,可让用户构建和部署大型语言模型 (LLM),如ChatGPT或Google Bard 。
Nvidia 在适当的时机越来越多地进军 AI 市场,不仅通过 Workbench,还通过Nvidia ACE 等游戏工具。随着像 ChatGPT 这样的生成式 AI 模型现在风靡一时,可以肯定的是,许多开发人员可能会对 Nvidia 的一站式简单解决方案感兴趣。这对于我们其他人来说是否是一件好事还有待观察,因为有些人将生成式人工智能用于可疑的目的。
我们不要忘记,人工智能本身可能会变得非常精神错乱,就像 Bing Chat 的早期一样,开始创建和训练这些不同模型的人越多,我们就会看到越多的有问题或疯狂行为的实例在野外。但假设一切顺利,Nvidia 的 AI Workbench 肯定可以简化许多公司部署新的生成式 AI 的过程。