这项突破性的内存技术可以使人工智能的效率提高 1000 倍

我们都知道人工智能存在功率问题。总体而言,全球人工智能使用消耗的能量已经相当于塞浦路斯整个国家在 2021 年消耗的能量。

但明尼苏达大学双城分校的工程研究人员开发并展示了一种新的计算机内存设计,可以大大减少人工智能系统消耗的能量,从而帮助缓解这个问题。他们的研究最近发表在《自然》杂志《非常规计算》杂志上。

大多数现代计算系统都建立在所谓的冯·诺依曼架构之上,其中逻辑和内存子系统是分开的。在正常操作期间,数据在内存模块和处理器之间来回传输。这是现代计算机运行的基本基础。

然而, 随着处理速度迅速超过 I/O 技术,这种数据传输在处理速度(也称为内存墙问题)和功耗方面都成为瓶颈。正如研究人员指出的那样,仅仅来回打乱数据就消耗了计算本身所需电量的 200 倍。

开发人员试图通过“近内存”和“内存中”计算设计将逻辑和内存物理上更紧密地结合在一起来解决这个问题。近内存系统将逻辑和内存以 3D 阵列的方式堆叠在一起,它们是分层的 PB&J 风格,而内存系统将逻辑簇散布在单个芯片上的整个内存中,更像是花生酱和香蕉三明治。

双城研究团队的解决方案是一种新颖的、全数字化的内存设计,称为计算随机存取存储器(CRAM),其中“逻辑由存储单元本地执行;逻辑运算的数据永远不必离开内存,”研究人员表示。该团队通过将可重构自旋电子计算基板直接集成到存储单元中来实现这一目标,研究人员发现这一进步可以将人工智能操作的能耗降低“比最先进的解决方案低 1,000 倍”。

1,000 倍的改进可能只是基线。研究团队在MNIST 手写数字分类器任务上测试了 CRAM,发现“与 16 nm 技术节点的近内存处理系统相比,其能源和时间分别减少了 2,500 倍和 1,700 倍”。

新兴的人工智能产业已经面临着严重的资源问题。支持人工智能软件的GPU速度越来越快、功能越来越强大,而且非常耗能。例如, NVIDIA最新的顶级Blackwell B200 功耗高达 1,200W ,并产生大量废热,因此需要液体冷却,这是另一项资源密集型操作。

像谷歌、亚马逊和微软这样的超大规模企业都在争先恐后地建设为即将到来的人工智能革命提供动力所需的物理基础设施——即千兆瓦级的数据中心,其中一些还拥有自己的核电站——创造更节能的计算和内存资源对于人工智能技术的长期生存能力将变得越来越重要。


Posted

in

by

Tags: