一、清华大学:能效超英伟达 H100 全光学 AI 芯片 - 太极-Ⅱ

太极-Ⅱ芯片的全前向模式(FFM)允许直接在光学系统中进行计算密集型AI训练,无需复杂的反向传播过程,这可能标志着一种新的计算范式的开始。

Fully forward mode training for optical neural networks. Nature 632, 280–286 (2024). https://doi.org/10.1038/s41586-024-07687-4

二、明尼苏达大学:一种计算随机存取存储器(CRAM),2500倍的节能效果

CRAM技术颠覆了传统的冯·诺依曼架构,使用MTJ自旋电子器件,不依赖电荷存储数据,而是利用电子自旋,提供更高效的数据存储与处理方式。对于需要大量数据并行处理的应用如深度学习、图像处理和大数据分析尤为适用

https://www.nature.com/articles/s44335-024-00003-3

三:北京大学:基于存算一体架构的无乘法近似计算AI加速芯片

课题组提出了无乘法近似计算AI加速芯片,引入无乘法网络,通过软硬件协同设计实现高能量效率。芯片架构简化了绝对值减法为比较计算,提升了高位宽操作的能量效率
核心创新:基于动态逻辑的比较器电路设计,节省了电路面积,并通过比较器电路的判断信号提前终止SRAM读出操作,有效利用数据稀疏性降低功耗

https://ieeexplore.ieee.org/document/10622078/

标签:AI

评论已关闭