明尼苏达大学双城分校的研究人员发明了一种设备,他们称该设备可以将 AI 功耗降低至少 1000 倍。
通常,机器学习或人工智能过程在逻辑(系统内处理信息)和内存(存储数据)之间传输数据。
研究人员表示,这种运输消耗大量能源,需要大量资源。
但新设备将数据永久保存在所谓的计算随机存取存储器(CRAM)中。 随机存取算术存储器直接在存储单元内执行计算,更有效地使用阵列结构,并且消除了缓慢、耗电的数据传输的需要。
“作为一种高能效的数字计算基板,可定制的随机存取存储器(CRAM)非常灵活,因为计算可以在存储器阵列中的任何位置执行,”该论文的合著者、该系副教授 Olya Karbozhko 说。电气和计算机工程。“我们可以重新配置可定制的 RAM (CRAM),以更好地满足各种 AI 算法的性能需求。”
“它比当今人工智能系统的传统构建模块更加节能。”
研究人员指出,基于 CRAM 的机器学习推理加速器的测试显示,与传统方法相比,性能提高了约 1,000 倍,其他示例实现了 2,500 倍和 1,700 倍的节能。
这项工作将团队之前的研究扩展到磁性隧道结(MTJ)、用于增强硬盘驱动器、传感器和其他微电子系统(包括磁性随机存取存储器(MRAM))的纳米结构器件。
最高效的短期随机存取存储器 (RAM) 器件使用四个或五个晶体管来编码 1 或 0,但单个 MTJ(陀螺电子器件)可以使用一小部分功率以更高的速度执行相同的功能。该团队表示,速度快,并且能够抵抗恶劣的环境。
该研究的主要作者、麦克奈特大学的杰出教授王建平表示:“20 年前,我们最初的将存储单元直接用于计算的想法被认为是疯狂的。”
研究人员正在研究多项专利,并计划与半导体行业领导者合作提供大规模演示。
今年早些时候,国际能源署发布的全球能源使用预测表明,人工智能的能源消耗可能会翻一番,从 2022 年的 460 太瓦时增加到 2026 年的 1,000 太瓦时,大致相当于日本的用电量。
上周,世界经济论坛警告称,生成式人工智能系统实际上可能比特定任务软件多使用约 33 倍的能量来完成任务。
其他工程师也致力于降低 AI 的功耗,Nvidia 声称其新的“超级 AI 芯片”在运行生成式 AI 服务时可以将性能提高 30 倍,同时功耗降低 25 倍。
“驕傲的網絡狂熱者。微妙迷人的推特怪胎。讀者。互聯網先驅。音樂愛好者。”
More Stories
《东京恶习》制片人详述日本走向全球制作中心之路
康拉德·科尔曼仅使用可再生能源再次改变了世界
新款 MacBook Pro 为苹果一周的重大新闻画上了句号