【最新技术】首次!突破世纪难题!我国成功研制出新型芯片
10月26日消息,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现了在精度上可与数字计算媲美的模拟计算系统。

该芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍。相关论文于10月13日刊发于《自然·电子学》期刊。
这一成果标志着我国突破模拟计算世纪难题,在后摩尔时代计算范式变革中取得重大突破,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径。
矩阵方程求解是线性代数的核心内容,在信号处理、科学计算及神经网络二阶训练等领域具有广泛应用。相较于常规矩阵乘法,矩阵求逆操作对输入误差的敏感性显著更高,因此对计算精度提出了严格要求。然而,采用数字方法实现高精度矩阵求逆的计算开销极大,其时间复杂度可达立方级。随着大数据驱动类应用的兴起,这种高复杂度计算给传统数字计算机带来了严峻挑战,尤其在传统器件尺寸缩放逼近物理极限、传统冯·诺依曼架构面临“内存墙”瓶颈的双重背景下,这一问题日益凸显。

在这一算力瓶颈的背景下,模拟计算因其通过物理定律直接实现高并行、低延时、低功耗运算的先天优势,重新进入研究视野。然而,传统模拟计算受限于低精度、难扩展等固有缺点,逐渐被高精度、可编程的数字计算所取代,成为存于教科书中的“老旧技术”。孙仲表示:“如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的‘世纪难题’。”
面对上述挑战,研究团队选择了一条融合创新的道路,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器。通过新型信息器件、原创电路和经典算法的协同设计,首次将模拟计算的精度提升至24位定点精度。
综合基准测试结果证实,在保持相当计算精度的前提下,本模拟计算方法可实现领先的处理速度和能效。这些成果不仅验证了全模拟矩阵求解路径的可行性,也为应对未来智能计算与通信系统中的算力瓶颈提供了具有前景的技术平台。
来源:北京大学

2026年3月18日至20日,由北京人工智能学会与北京恒辉国际展览有限公司联合主办的2026全球(北京)AI智能创新与应用博览会(简称“AIS Beijing 2026”)将在中国国际展览中心朝阳馆盛大启幕。作为人工智能领域开年首场重量级盛会,本届博览会致力于推动行业深度交流、加速技术创新突破、全方位展示前沿成果,以构建一个高端、开放、共享的国际交流合作平台为目标,届时,全球顶尖的AI企业、科研机构以及创新人才将齐聚北京,各类先进产品、技术在此交汇碰撞,携手探寻人工智能发展的无限可能。