摘要:当传统芯片还在为纳米制程的极限苦苦挣扎时,一场颠覆计算规则的革命已悄然爆发。悉尼科技大学团队在《自然·通讯》发表的研究如同平地惊雷:他们开发的可编程微波电路,能以光速执行并行计算,能耗仅为传统数字芯片的百分之一。更令人振奋的是,中国科研力量早已在同赛道实现弯道
当传统芯片还在为纳米制程的极限苦苦挣扎时,一场颠覆计算规则的革命已悄然爆发。悉尼科技大学团队在《自然·通讯》发表的研究如同平地惊雷:他们开发的可编程微波电路,能以光速执行并行计算,能耗仅为传统数字芯片的百分之一。更令人振奋的是,中国科研力量早已在同赛道实现弯道超车,从光子芯片到全光互连,正构建起全新的算力版图。这场"光速竞赛",正在重新定义人类处理信息的速度极限。
澳洲突破:用电磁波改写计算规则
悉尼科技大学射频与通信技术实验室的Rasool Keshavarz博士团队,这次找到了破解数字计算瓶颈的钥匙。他们将物理学与电子学深度融合,造出了全球首个能执行矩阵转换的可编程微波集成电路——这可不是简单的电路升级,而是计算范式的根本变革。
传统数字计算就像流水线工人,依赖晶体管的"开/关"状态逐指令处理数据,时钟速度、发热和能效三大枷锁始终无法挣脱。比如当前最先进的CPU,时钟频率极限不过5GHz,每执行一次复杂矩阵运算都要经过成百上千次晶体管切换,能耗随之飙升。而Keshavarz博士的发明完全跳出了这个框架:利用高频电磁波的连续信号特性,让多个计算任务像多条车道上的车流一样并行推进,速度直达光速(3×10⁸米/秒)。
"这就像从信件邮寄升级到实时通话。"团队核心成员、罗切斯特理工学院的Mohammad-Ali Miri副教授打了个形象的比方。矩阵转换作为AI推理、雷达信号处理的基础运算,在传统芯片上需耗时毫秒级,而新电路能在纳秒内完成,效率提升了近万倍。更关键的是,其能耗降低了两个数量级,完美解决了超算中心"电老虎"的痛点。
Keshavarz博士特别强调了这项技术的实用价值:"它和量子计算是两条路。量子计算还在解决稳定性和可扩展性问题,我们的模拟计算平台现在就能用,尤其适合雷达、先进通信这些需要实时响应的领域。"目前团队已启动系统级架构研发,目标是3年内实现商业化落地。
中国逆袭:光子计算跑出"中国速度"
就在澳洲团队突破微波模拟计算的同时,中国科研界已在光子模拟计算领域拿下多个"世界第一"。不同于澳洲的微波路线,中国选择以光子为信息载体,在速度和集成度上实现了更大突破,形成了"基础研究+产业应用"的完整布局。
中科院半导体研究所的李明研究员、祝宁华院士团队,刚刚在光学顶刊发表了封面成果:他们开发的伊辛智能计算光子芯片,将56×56规模可编程光子集成电路(包含2000余个单元器件)的重构时间压缩到30毫秒。这个数字背后藏着惊人的效率对比:传统GPU处理同等规模的电路重构需要1000小时,而中国芯片只用了30毫秒,计算效率提升了近8个数量级。
"可编程光子芯片的重构优化一直是行业瓶颈,传统算法根本应付不了上千个调控单元的复杂系统。"李明研究员解释道。他们的秘诀是将光子器件的传输矩阵映射为伊辛自旋态,用伊辛智能计算实现全局最优配置。在光路由测试中,该芯片能让10Gbaud速率的信号无阻塞传输,眼图质量几乎无损耗,为5G-A和6G通信提供了核心硬件支撑。
产业应用端的突破同样亮眼。在2025世界人工智能大会上,中兴通讯的"分布式OCS全光互连芯片"斩获SAIL大奖。这款芯片用光子集成技术实现64通道全光交换,将2000卡GPU集群的通信延迟从15毫秒压降至3.2毫秒,处理1750亿参数AI模型时效率提升30%,每年能节省2.6亿度电。国家超算中心的数据显示,引入该技术后,集群光模块功耗直接下降60%。
更具代表性的是曦智科技的"穹天"训练芯片,其光子计算单元在处理稀疏矩阵时,能效比达到传统GPU的17倍。当AI模型参数量突破万亿时,光互连技术能将梯度同步时间从23分钟压缩至5分钟,这意味着大模型训练周期可缩短近80%。
路线之争:微波与光子谁主沉浮?
中澳两国的技术突破,揭示了模拟计算的两条核心路线——微波与光子。这两条路线各有优势,也在不同场景形成互补,共同推动计算技术超越数字时代。
澳洲主导的微波模拟路线胜在成熟度高。微波电路与现有电子工业体系兼容性强,无需重建生产线就能实现规模化制造,尤其适合雷达、卫星通信等需要抗干扰的场景。其可编程特性可通过软件定义实现功能切换,比如同一芯片既能处理雷达信号,又能承担通信中继任务,硬件复用率提升了3-5倍。但微波路线的短板也很明显:传输损耗随距离增加而加剧,大规模集成时信号串扰问题难以解决。
中国主攻的光子路线则在速度和能效上更具潜力。光子的传播速度比微波快约10%,且不存在电磁干扰,能实现长距离低损耗传输——中兴的光互连芯片已在苏州至乌鲁木齐的超远距离链路中实现0.001%的低误码率。在集成度上,中科院的光子芯片已实现2000余个单元器件的高密度集成,且算力密度达到每瓦特8万亿次运算(TOPS),是微波电路的5倍以上。不过光子路线面临的挑战是成本较高,光电器件的量产良率仍需提升。
从应用场景看,两条路线已呈现差异化竞争:微波模拟计算在车载雷达、太空探测等领域快速落地,光子计算则在AI训练、超算互连等大算力场景占据优势。值得注意的是,两者正出现融合趋势,中科院团队已尝试在光子芯片中集成微波调控单元,实现了"光处理+微波控制"的混合架构,兼顾了速度与灵活性。
算力革命:离我们还有多远?
无论是澳洲的微波电路还是中国的光子芯片,都在传递一个明确信号:光速计算的时代已不再遥远。但从实验室走向日常生活,仍需跨越三大障碍。
首先是精度控制难题。模拟计算用连续信号处理数据,易受温度、噪声影响,精度通常在99%左右,而数字计算能达到99.9999%以上。这在金融交易、科学计算等高精度场景是致命短板。目前中澳团队都在攻关自适应校准技术,中科院通过AI算法实时补偿信号偏差,已将光子计算精度提升至99.9%,基本满足多数工业场景需求。
其次是系统兼容性问题。现有软件生态都是为数字计算设计的,模拟芯片无法直接运行。中兴通讯的解决方案颇具启发性:他们开发了"数字-模拟转换中间件",让AI框架能无缝调用光计算资源,就像使用传统GPU一样简单。这套中间件已适配华为昇腾、壁仞科技等国产芯片,加速了产业落地。
最后是成本控制。当前光子芯片的单价是同性能数字芯片的3-4倍,制约了大规模应用。但随着中科院在硅基集成工艺上的突破,光子器件成本已开始下降,预计2027年能与高端GPU持平。届时,从自动驾驶的实时环境感知到手机端的AI推理,都将用上光速计算技术。
Keshavarz博士在接受采访时曾说:"计算的终极目标是追上自然的速度。"当中国的光子芯片在实验室里实现毫秒级重构,当澳洲的微波电路开始接受工业测试,人类离这个目标又近了一大步。这场算力革命不会一蹴而就,但可以肯定的是,那个靠晶体管"精打细算"的时代即将落幕,一个由光与波驱动的光速计算时代,正在加速向我们走来。
来源:智能学院