英伟达的新型小型机提供 80 倍的性能

Nvidia 在今天的 GTC 2022 主题演讲中宣布即将发布的 Jetson Orin Nano,这是一种系统级模块 (SOM),将为下一代入门级 AI 和机器人技术提供动力。

Nvidia 表示,这个新版本的性能比 99 美元的 Jetson Nano 提高了 80 倍。 原始版本于 2019 年发布,已被用作进入 AI 和机器人世界的准系统,特别是对于业余爱好者和 STEM 学生而言。 这个新版本看起来很强大。

Nvidia 的 Jetson Orin Nano 机器人处理器。

模块上系统(也称为模块上计算机)具有带有微处理器的单板。 它还具有内存和输入/输出 (IO),并且通常具有载板。 请注意,它与片上系统 (SOC) 不同——SOM 是基于板的,可能有空间包含额外的组件; 它甚至可以包括一个 SOC。 简而言之,SOM 是一种即用型计算解决方案,但它不是一台完整的计算机。

抛开技术问题,让我们谈谈 Nvidia 的最新开发产品 Jetson Orin,它配备了六个基于 Orin 的生产模块,这些模块可以以可承受的价格处理人工智能和机器人应用程序。 其中包括 Nvidia Jetson Orin Nano。

尽管是最小的 Jetson SOM,但 Jetson Orin Nano 每秒可以处理高达 40 万亿次操作 (TOPS) 的 AI 相关任务。 AGX Orin 的性能达到了新的高度,提供 275 TOPS 以处理先进的自主机器。

Nvidia 的 Jetson Orin 配备了基于 Ampere 的 GPU、基于 ARM 的 CPU 和多模式传感器支持。 它还与 Nvidia 的 Orin NX 模块完全兼容,包括完整的仿真支持,使 Nvidia 的客户能够围绕多个 Jetson 模块进行设计。 其他好处包括支持多个并发 AI 应用程序管道,并提供快速输入和输出。

Jetson Orin Nano 模块将提供两种变体,一种具有 8GB 内存和最高 40 TOPS,另一种具有 4GB 内存和最高 20 TOPS。 在功耗方面,SOM 几乎不需要任何东西:前者需要 7 瓦到 15 瓦之间,而后者只需要 5 瓦到 10 瓦。

Nvidia Jetson Orin Nano 系统级模块。英伟达

Nvidia 预计这些模块将被广泛的客户使用,从处理边缘 AI 应用程序的工程师到机器人操作系统开发人员。 仅 199 美元起的低价位将使更广泛的用户更容易使用这项技术。 英伟达引用佳能、约翰迪尔、微软 Azure 等作为 Jetson Orin Nano 的早期采用者。

英伟达嵌入式和边缘计算部门副总裁 Deepu Talla 表示:“随着当今数百万边缘 AI 和 ROS 开发人员的性能提高了几个数量级,Jetson Orin 是几乎所有可以想象的机器人部署的理想平台。” .

Nvidia 声称 Jetson Orin 的性能将比上一代 Jetson SOM 提高 80 倍。 这是以合理的价格迈出的一大步。 这些模块将于 2023 年 1 月开始提供。

编辑推荐

资讯来源:由0x资讯编译自Digitaltrends,版权归作者Monica J. White所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢