英伟达 200 美元的 Jetson Orin Nano 微型计算机比之前的版本快 80 倍

Nvidia 在今天的GTC 2022 主题演讲中宣布即将发布的 Jetson Orin Nano,这是一种系统级模块 (SOM),将为下一代入门级 AI 和机器人技术提供动力。

Nvidia 表示,这个新版本的性能比99 美元的 Jetson Nano提高了 80 倍。原始版本于 2019 年发布,已被用作进入 AI 和机器人世界的准系统,特别是对于业余爱好者和 STEM 学生而言。这个新版本看起来很强大。

Nvidia 的 Jetson Orin Nano 机器人处理器。

模块上系统(也称为模块上计算机)具有带有微处理器的单板。它还具有内存和输入/输出 (IO),并且通常具有载板。请注意,它与片上系统 (SOC) 不同——SOM 是基于板的,可能有空间包含额外的组件;它甚至可以包括一个 SOC。简而言之,SOM 是一种即用型计算解决方案,但它不是一台完整的计算机。

抛开技术问题,让我们谈谈 Nvidia 的最新开发产品 Jetson Orin,它配备了六个基于 Orin 的生产模块,这些模块可以以可承受的价格处理人工智能和机器人应用程序。其中包括 Nvidia Jetson Orin Nano。

尽管是最小的 Jetson SOM,但 Jetson Orin Nano 每秒可以处理高达 40 万亿次操作 (TOPS) 的 AI 相关任务。 AGX Orin 的性能达到了新的高度,提供 275 TOPS 以处理先进的自主机器。

Nvidia 的 Jetson Orin 配备了基于 Ampere 的 GPU、基于 ARM 的 CPU 和多模式传感器支持。它还与 Nvidia 的 Orin NX 模块完全兼容,包括完整的仿真支持,使 Nvidia 的客户能够围绕多个 Jetson 模块进行设计。其他好处包括支持多个并发 AI 应用程序管道,并提供快速输入和输出。

Jetson Orin Nano 模块将提供两种变体,一种具有 8GB 内存和最高 40 TOPS,另一种具有 4GB 内存和最高 20 TOPS。在功耗方面,SOM 几乎不需要任何东西:前者需要 7 瓦到 15 瓦之间,而后者只需要 5 瓦到 10 瓦。

Nvidia Jetson Orin Nano 系统级模块。
英伟达

Nvidia 预计这些模块将被广泛的客户使用,从处理边缘 AI 应用程序的工程师到机器人操作系统开发人员。仅 199 美元起的低价位将使更广泛的用户更容易使用这项技术。英伟达引用佳能、约翰迪尔、微软 Azure 等作为 Jetson Orin Nano 的早期采用者。

英伟达嵌入式和边缘计算部门副总裁 Deepu Talla 表示:“随着当今数百万边缘 AI 和 ROS 开发人员的性能提高了几个数量级,Jetson Orin 是几乎所有可以想象的机器人部署的理想平台。” .

Nvidia 声称 Jetson Orin 的性能将比上一代 Jetson SOM 提高 80 倍。这是以合理的价格迈出的一大步。这些模块将于 2023 年 1 月开始提供。


Posted

in

by

Tags: