摘要:近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,相关成果于10月13日发表在《自然·电子学》期刊 。
孙仲
中国在芯片技术领域取得重大突破!
近日,北京大学人工智能研究院孙仲研究员团队联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,相关成果于10月13日发表在《自然·电子学》期刊 。
这一突破不仅解决了困扰全球科学界半个多世纪的模拟计算精度难题,更在关键性能指标上实现了对顶级数字处理器(GPU)的百倍至千倍超越,为人工智能、6G通信等领域的算力瓶颈提供了革命性解决方案。
1. 模拟计算的革新
传统模拟计算通过连续物理量(如电压、电流)直接模拟数学运算,无需将数据转换为二进制数字流,具有天然的低功耗、高并行优势。
但由于器件参数波动和环境干扰,其精度长期落后于数字计算。
孙仲团队通过器件-电路-算法协同设计,首次实现了24位定点精度的模拟矩阵运算,将传统模拟计算的精度提升了五个数量级,相对误差可低至10⁻⁷量级。
例如,在16×16矩阵求逆实验中,该芯片经过10次迭代后误差已接近数字计算水平 。
孙仲团队合照
2. 阻变存储器的核心作用
芯片采用阻变存储器作为计算单元,通过电场调控材料的电阻状态直接实现矩阵运算。
这种“存算一体”架构打破了冯·诺依曼体系中计算与存储分离的瓶颈,取消了数据搬运环节,使能效比提升百倍以上。
与国内外其他存算一体方案相比,该团队聚焦于更具挑战性的矩阵方程求解(AI二阶训练的核心),而不是常见的矩阵乘法,填补了模拟计算在复杂科学问题上的应用空白 。
高精度全模拟矩阵计算求解矩阵方程
1. 算力碾压传统GPU
在关键性能测试中,该芯片展现出惊人的计算能力:
- 32×32矩阵求逆:算力超越高端GPU单核性能;
- 128×128矩阵求逆:计算吞吐量达到顶级数字处理器的1000倍以上,传统GPU需要耗时一天的任务,该芯片仅需一分钟即可完成 。
这种性能优势源于模拟计算的物理并行特性。例如,数字GPU需通过反复迭代求解矩阵方程,而模拟芯片可利用电阻网络直接映射矩阵运算,大幅减少计算步骤 。
2. 能效比提升百倍
在相同精度下,该芯片的能效比(计算量/功耗)是传统GPU的100倍以上。
以AI训练场景为例,若使用该芯片处理矩阵逆运算,数据中心的能耗成本可降低90%以上,为应对人工智能领域的“算力黑洞”提供了关键技术支撑。
1. 人工智能的效率革命
- 大模型训练加速:矩阵逆运算是二阶优化算法(如牛顿法)的核心,该芯片可使训练速度提升数百倍,显著降低大模型研发成本。
- 边缘计算突破:低功耗特性支持复杂AI模型在终端设备(如手机、机器人)上直接运行,减少对云端的依赖。
例如,南京大学团队的类似芯片已在MNIST图像识别任务中达到97.97%准确率,与64位浮点精度软件结果相当 。
2. 6G通信的关键支撑
在5G/6G基站中,大规模MIMO(多输入多输出)技术需处理海量天线信号,传统数字处理器难以满足实时性要求。
该芯片可将MIMO信号检测速度提升千倍,支持基站在单位时间内处理更多用户数据,显著提升网络容量和能效。
例如,诺基亚在6GHz频段的MIMO试验已验证了高频段通信的潜力,而北大芯片将进一步推动这一技术落地。
3. 科学计算的范式转换
在流体力学、量子化学等领域,矩阵方程求解是核心瓶颈。
该芯片可使纳维-斯托克斯方程等复杂问题的模拟速度提升两个数量级,为科学研究提供全新工具。
南京大学团队的芯片已在流体模拟中实现与64位浮点计算高度一致的结果,而传统低精度模拟硬件则无法完成 。
1. 国产芯片的战略突破
当前全球模拟芯片市场由德州仪器、ADI等美企主导,而该成果为国产替代提供了关键技术路径。
士兰微等国内企业已启动200亿元高端模拟芯片生产线项目,预计2027年实现量产。
结合中国对进口模拟芯片的反倾销调查,这一突破有望重塑全球模拟芯片竞争格局。
2. 计算架构的未来趋势
孙仲团队强调,模拟计算与数字计算将长期共存互补:CPU作为通用“总指挥”、GPU专注矩阵乘法、模拟芯片专攻矩阵逆运算,形成异构计算生态 。
未来,这种分工将推动算力资源的精准分配,例如机器人动态控制中,模拟芯片可实时处理传感器数据,而数字处理器负责任务规划。
3. 绿色算力的新希望
在全球算力需求激增的背景下,该芯片的高能效特性为“碳中和”目标提供了技术保障。
若全球数据中心10%的算力由模拟芯片承担,每年可减少数亿吨碳排放,相当于新增数百万公顷森林。
尽管技术突破显著,但从实验室到大规模应用仍需克服两大挑战:
1. 工艺稳定性:阻变存储器的一致性和耐久性需进一步提升,目前实验室芯片的良率约为75%,距产业化要求(95%以上)仍有差距。
2. 生态建设:需开发适配模拟计算的编译器和算法库,降低开发者门槛。
例如,南京大学团队通过“权值重映射”技术优化编程体验,为生态构建提供了参考 。
孙仲团队透露,目前正与国内企业合作推进产业化,预计2026年前后实现首批商用芯片落地。
这一成果不仅是中国科技自主创新的里程碑,更标志着人类在探索新型计算范式的道路上迈出了关键一步。
正如《自然·电子学》审稿人所言:“这项工作重新定义了模拟计算的可能性,为后摩尔时代的算力革命开辟了新赛道。”
来源:走进科技生活
