清华突破美国封锁造出超级芯片!
2023年10月,清华大学宣布研制出全球首颗全系统集成的忆阻器存算一体芯片,成功实现了支持高效片上学习的存算一体技术突破——这项连美国尚未掌握的核心技术,直指人工智能计算的未来。
2023年10月,清华大学宣布研制出全球首颗全系统集成的忆阻器存算一体芯片,成功实现了支持高效片上学习的存算一体技术突破——这项连美国尚未掌握的核心技术,直指人工智能计算的未来。
大型语言模型(LLMs)正在迅速逼近当代计算硬件的极限。例如,据估算,训练GPT-3大约消耗了1300兆瓦时(MWh)的电力,预测显示未来模型可能需要城市级(吉瓦级)的电力预算。这种需求促使人们探索超越传统冯·诺依曼架构的计算范式。
现阶段计算与存储分离的“冯·诺依曼”体系在功耗和速率方面已经不能满足人工智能、物联网等新技术的发展需求,存算一体化的类脑计算方案有望解决这一问题,迅速成为研究热点。
展会将展示全球首款量产存算一体芯片,采用ReRAM忆阻器技术,实现存储与计算的物理融合,数据搬运能耗降低95%,算力密度达100TOPS/W。在图像识别任务中,处理速度是传统GPU的15倍,功耗仅为1/10,适用于智能摄像头、可穿戴设备等边缘场景。某安防厂商搭
类脑芯片就是突破“冯·诺依曼架构”的路线之一,它一种高度模拟人脑计算原理的芯片。如果把类脑芯片做得更像人脑,就会被赋予一个新的名字——神经拟态计算/神经形态计算(Neuromorphic Computing),它是数字芯片和AI计算的一条重要发展路线。
从智能手机到航天飞船,从智能家居到工业机器人,电子元器件作为现代科技最基础的构成单元,始终在无形中支撑着人类文明的数字化进程。这个看似传统的行业,实则在材料科学、精密制造和智能化浪潮的交汇处不断进化,成为推动全球科技革命的核心动力。
芯片与异构计算:GPU、NPU 等专用芯片在深度学习、大模型训练中的核心地位持续强化。国产 AI 算力芯片如海光信息第三代 DCU “深算三号” 预计 2025 年量产,性能对标英伟达 A100,兼容 CUDA 生态,已在智算中心、互联网、金融等领域实现规模化
本封面展示了基于三维堆叠工艺的忆阻器神经形态芯片,其通过原子层沉积技术实现忆阻器阵列的垂直堆叠与集成,并模拟大脑工作,完成神经形态计算的任务。随着晶体管沟道尺寸逐渐逼近其物理极限,现有计算机普遍存在感知存储计算分离、功耗高等问题,导致神经形态系统的信息处理能效