摘要:最近科技圈又出了个大新闻!8月初浙江大学发布了新一代神经拟态类脑计算机“悟空”,它的神经元数量突破20亿,直接拿下全球规模最大类脑计算机的头衔。
最近科技圈又出了个大新闻!8月初浙江大学发布了新一代神经拟态类脑计算机“悟空”,它的神经元数量突破20亿,直接拿下全球规模最大类脑计算机的头衔。
可能有人会问,类脑计算这东西到底有啥用?说直白点,它对AI计算的加持可不是一星半点,甚至有可能成为推动AI迎来“觉醒时刻”的关键力量。
今天咱们就用大白话聊聊,这台“悟空”到底牛在哪,类脑计算又能给AI带来哪些新改变。
要搞懂“悟空”的厉害,得先明白啥是类脑计算。简单说,就是模仿咱们大脑的工作方式,让计算机处理信息的能力更“聪明”。
咱们现在用的电脑,不管是笔记本还是服务器,都离不开冯・诺依曼架构,核心的CPU得靠全局时钟同步,所有电路按固定周期干活,就算没任务也得“空转”保持同步,功耗一直下不来。
但类脑计算不一样,它是“事件驱动”的,信息靠脉冲传播,没有全局时钟,走的是“全局异步、局部同步”的路子,就像咱们大脑一样,没事不折腾,有事才响应。
这就引出了类脑计算的第一个大优势——低功耗。
咱们的大脑多省电?也就20瓦功率,还没手机快充功率大,秘诀就是“稀疏计算”:只有1%-4%的神经元时刻活跃维持基本功能,处理特定任务时只调动对应的神经回路。
类脑计算就学了这招,比如“悟空”,整体功耗才2千瓦,跟传统GPU集群比起来,简直是“节能小能手”。
而且实现类脑计算有两条主要路线,数字神经拟态和模拟神经拟态。
数字路线用数字电路仿照大脑原理,跟现有半导体工艺兼容,能和CPU、GPU这些芯片配合工作,离商业化更近,像浙大、清华还有IBM、英特尔都在这条路上深耕;
模拟路线则靠器件物理特性模拟神经元,虽然更贴近真实大脑,但技术难度大,目前还在探索阶段。
“悟空”就属于数字路线里的“网络结构体”设计,和清华大学之前的“天机芯片”思路类似,由15台刀片服务器组成,用了960颗浙大自主研发的“达尔文三代”芯片。
单颗芯片能虚拟出235万个神经元,960颗一叠加,总神经元数就达到了22.56亿,比英特尔2024年4月发布的系统(11.5亿神经元)翻了近一倍,实力相当能打。
那么这台“悟空”是怎么干活的?关键在于它的硬件设计和数学模型。、从硬件上看,“达尔文三代”芯片里有24×24的二维网格,576个计算节点互联互通,除了1个负责管理的RISC-V处理器,剩下575个都是专门的神经元核心,每个核心能靠“时分复用”虚拟出4096个逻辑神经元,算下来单颗芯片就能支撑235万个神经元。
而软件层面,最核心的是神经元模型,类脑计算领域最经典的LIF模型(泄露积分-发射模型)就是基础——输入脉冲像电流一样积累在“电容器”上,让“膜电位”上升,要是电位超过阈值,就会发出一个输出脉冲,同时电位重置,还会有段“不应期”不能再触发,就像大脑神经元的工作节奏。
“悟空”用的是更先进的模型,能模拟大脑对刺激的适应性,比如疲劳、突发反应,比基础模型更贴近真实大脑。
对当下火热的AI大模型来说,“悟空”这类类脑计算机的价值可不小。
首先是推理场景,它能运行DeepSeek这类传统GPU训练的大模型(通过编译工具转换,精度损失可控),而且功耗低到惊人。
英特尔之前的Loihi芯片在边缘计算时,推理功耗只有传统芯片的1/100,机器人视觉任务用“瓦级”功耗就能搞定,换成GPU得几百瓦。
其次,虽然现在类脑计算还不适合训练大模型(GPU在密集计算、高精度浮点数算力上更成熟,类脑芯片目前没商业优势),但它有个独门绝技——在线学习。
传统GPU运行大模型是“静态”的,要优化模型得先在训练端改好再部署,参数没法实时更-新;可类脑计算仿照大脑原理,能动态更新模型,不用重新训练。
比如靠STDP(基于脉冲时序的可塑性)机制,根据神经元脉冲的先后顺序调整连接权重,先触发的加强、后触发的削弱,就像大脑“用进废退”的神经调节方式,部署在边缘侧的大模型能本地强化,不用从云端加载新版本。
像自动驾驶遇到雨天,传统GPU得全帧计算,类脑计算只处理局部像素变化,既省功耗又快,还能实时适应新场景,不会出现“灾难性遗忘”的问题。
现在AI大模型还在不断进化,传统计算架构在功耗、实时学习上的瓶颈越来越明显,而类脑计算就像打开了一扇新大门。
浙大“悟空”的突破,不仅是数量上的领先,更让我们看到了AI朝着“更像大脑”方向发展的可能——低功耗、能终身学习、可实时适应环境,这些特性或许就是AI实现“觉醒”的关键一步。
未来随着技术不断成熟,类脑计算说不定会给AI领域带来更多颠覆性改变,让我们一起期待那一天的到来。
来源:贾老师说的不假