摘要:想象一下:未来你的手机能流畅运行复杂AI模型,汽车的智能驾驶系统不再依赖大型数据中心,就连日常的温湿度传感器都能搭载AI功能——这不是天马行空的幻想,而是光子计算技术突破后,正在一步步走进现实的场景。
撰文 / 钱亚光
编辑 / 张 南
设计 / 柴文静
想象一下:未来你的手机能流畅运行复杂AI模型,汽车的智能驾驶系统不再依赖大型数据中心,就连日常的温湿度传感器都能搭载AI功能——这不是天马行空的幻想,而是光子计算技术突破后,正在一步步走进现实的场景。
如今,人工智能早已渗透到生活的方方面面,从手机解锁的面部识别,到跨境沟通的语言翻译,背后都离不开AI系统的支撑。
但你可能不知道,当前主流的AI系统,大多依赖传统的硅基处理器,而这类处理器有个“致命短板”:它得把所有信息都转换成二进制代码(0和1)才能处理。这个过程不仅耗电大,还会拖慢计算速度,成了AI发展的“绊脚石”。
随着AI模型越来越复杂,它的“胃口”也越来越大——对计算能力和能源的需求直线上升。国际能源署曾预警,到2026年,全球数据中心的电力消耗将占到总用电量的3%至8%,而AI计算正是推动这一数字上涨的主要原因。
更直观的是,训练一个大型语言模型所用的电力,足够给数千户家庭供电一整年。巨大的能耗不仅让电力供应承压,还推高了AI应用的成本,更给环境带来了不少碳排放负担。
就在这时,研究人员发现了新的突破口:用“光”来做计算,效率会比用电高得多。美国佛罗里达大学的沃尔弗尔・J・索尔格(Volker J. Sorger)教授和Hangbo Yang助理教授,联合多所高校团队,研发出了一款“划时代”的光基芯片。
这项成果发表在《先进光子学Advanced Photonics)》期刊上,还得到了美国海军研究办公室的资助。它最大的本事,就是让光和电协同工作,高效完成AI里像图像识别这样“耗电大户”的任务,能效比传统芯片提升了10倍甚至100倍以上。
要知道,卷积运算可是机器学习的“核心操作”——不管是识别图片里的物体,还是分析视频的内容,都离不开它,同时它也是AI计算中最耗能的环节之一。而这款光基芯片,就是专门为解决卷积运算的能耗和速度问题而来,通过把光学元件和传统电子元件结合,实现了效率的飞跃。
01
光基芯片的三大“王牌”
“能在近乎零能耗的情况下完成关键的机器学习计算,这对未来AI系统来说是巨大的进步,也会成为接下来几年提升AI能力的关键。”研究负责人索尔格这样评价这款芯片。
它的设计灵感很有意思,来自过去灯塔上用的巨大玻璃透镜——不过现在被“缩小”了,换成了激光和直接蚀刻在电路板上的微型透镜。在实验室测试里,它的准确率和传统芯片不相上下:识别手写数字时成功率达到了98%,但能耗却只有传统芯片的一小部分。
可能有人会问,光基芯片到底和传统电子芯片有啥不一样?简单说,传统电子芯片是靠电子在硅这类半导体材料里移动,来传输和处理0和1信号;而光基芯片(也叫光子集成电路)是靠光子——也就是光的基本粒子,在光波导(相当于光子的“导线”)里传输信号,完成计算。
正是因为用“光”代替“电”来执行卷积运算这个AI领域的“耗电大户”,光基芯片才能在保持传统芯片性能的同时,大幅节省能耗。
传统电子芯片做卷积运算时,得靠晶体管阵列完成乘法-累加MAC)操作,这就会遇到两个大问题:布线延迟(信号传输慢)和焦耳热损耗(耗电还发热);而这款光基芯片基于相位共轭联合变换相关器(pJTC)原理,把计算过程转移到了光子域,直接避开了这两个瓶颈。
它的关键突破在于,首次在硅基芯片上实现了“傅里叶变换-卷积运算”一体化——要知道,传统光学系统得靠“分立透镜+光路校准”,结构复杂还占地方,而这款芯片面积只有5mm×5mm,还能和现在的Chiplet封装技术兼容,很容易融入现有产业链。
那它具体是怎么工作的呢?当执行卷积运算时,机器学习数据会先转换成激光信号,这些带着信息的激光信号,会穿过芯片表面蚀刻的两组微型菲涅尔透镜。这些微型透镜是灯塔菲涅尔透镜的“二维微缩版”,直径只有人类头发宽度的几分之一,却能精准控制激光束的传播和聚焦,完成复杂的数学变换;最后,变换后的结果再转回数字信号,AI任务就完成了。
得益于“电-光-电”的协同架构,再加上用多波长激光并行处理数据流,这款光基芯片的能效比达到了7162GOPS/W,是英伟达A100GPU的99倍。处理同样的任务,它的功耗只有8.2mW,还不到A100的1/100,甚至不需要主动散热——这对数据中心来说,能大大降低整体能耗。
“这是第一次有人把这种光学计算技术集成到芯片上,还用到了AI神经网络里。”Hangbo Yang表示。除了低能耗和高准确率,光基芯片还有个传统芯片比不了的优势:并行处理能力。研究团队证实,它能通过不同颜色的激光,同时处理多路数据流。
为啥能做到?因为光天生就适合“多任务并行”,而传统电子芯片受限于电子的串行传输特性,只能“一个接一个”地处理信息。比如,需要同时识别多张图片,或者分析大量文本数据时,光基芯片可以用不同波长(不同颜色)的激光,同时处理这些数据,效率自然大幅提升。
02
还有哪些类似光基AI芯片突破
就在佛罗里达大学团队发布成果的同时,全球不少研究团队和企业也在光基AI芯片领域发力,拿出了各自的突破性成果,形成了百花齐放的局面。下面我们看看今年同类研究的团队有什么进展。
清华大学:超低能耗、超高算力
2025年6月,清华大学陈宏伟团队《自然-通讯(Nature Communications)》发布了硅基衍射光神经网络(DONN)芯片,采用标准的绝缘体上硅(SOI)工艺,靠超表面结构实现被动光学计算。
它的亮点很突出:一是能效极高,完成一次MNIST手写数字分类的能耗只有1.1×10⁻¹⁷J/FLOP,是传统电子芯片的十亿分之一;二是算力密度惊人,0.3mm²的芯片就能实现13800TOPS算力,比现在的GPU提升了4个数量级;三是抗干扰能力强,就算制造过程中有误差,通过相位补偿算法也能恢复理论精度,在MNIST测试集上准确率达到86%。
这种技术靠光波衍射直接完成矩阵乘法,不需要主动光学元件,特别适合边缘设备(比如物联网传感器、小型智能终端)的低功耗推理任务,和佛罗里达大学的“主动光子芯片”形成了互补。
新加坡Lightelligence:5纳秒延迟的光子加速器
2025年4月,新加坡Lightelligence公司在《自然(Nature)》杂志发表了他们的PACE光子加速器,这款芯片集成了1.6万个光子组件,用2.5D封装技术实现光电子协同计算。
它的优势集中在速度和灵活性上:矩阵乘法延迟只有5纳秒,比英伟达A10GPU提升了500倍;能效达到2.38TOPS/W(包含激光器),在求解伊辛模型这类优化问题时表现突出;还支持动态重构权重,适合自动驾驶路径规划、物流调度等需要实时决策的场景。
它靠光电混合架构,平衡了光计算的并行性和电子控制的灵活性,和佛罗里达大学聚焦卷积运算的设计形成了差异化竞争。
东京大学:250端口并行的波导复用处理器
2025年6月,东京大学电子工程与信息系统系助理教授唐睿团队在《光学(Optica)》杂志发表了波导复用光子处理器,采用单波长、250端口并行架构。
它的创新点在于:一是架构简化,通过垂直p-i-n锗硅探测器,实现250路光信号同步处理,不用依赖波长复用,降低了复杂度;二是能耗低,在鸢尾花分类任务中准确率达到93.3%,功耗却只有同类方案的1/15;三是制造兼容性好,基于Advanced Micro Foundry的CMOS工艺流片,能和电子芯片实现三维堆叠。
这种单波长架构对精密校准的依赖度低,在传感器融合、工业检测等场景里有独特优势。
宾夕法尼亚大学:能用光训练的可编程芯片
宾夕法尼亚大学(University of Pennsylvania)材料科学与工程系教授Liang Feng研究团队开发出首款能用光来训练神经网络的可编程芯片。这项成果发表2025年4月在《自然・光子学(Natural Photonics)》杂志上,不仅能大幅提升AI的训练速度、降低能耗,还为“全光驱动计算机”的研发打下了基础。
这款芯片用了有光敏特性的特殊半导体材料,通过调整泵光的形状和强度,就能改变光的传播方式,实现实时学习。在简单的非线性决策边界任务中,准确率超过97%;在经典的虹膜数据集问题中,准确率也超过了96%。
03
未来可期,但挑战仍在
随着AI继续改变世界,它对能源的需求只会越来越大。而基于光的计算,不只是对现有技术的小修小补,更是对计算原理的重新思考——如果能成功落地,它很可能成为未来几十年AI可持续发展的关键钥匙。
这项技术能有效缓解AI模型复杂化带来的电力需求激增问题,还能推动边缘设备(比如自动驾驶汽车、物联网终端)的低功耗AI部署。目前,佛罗里达大学团队已经计划和英伟达合作,把光基芯片作为GPU的协处理器,目标是把整体能效提升15倍。
其实,像英伟达这样的芯片巨头,早就开始在AI系统的其他部分加入光学元件了,这也让光基芯片的卷积透镜更容易融入现有产品。
“在不久的将来,基于芯片的光学技术会成为我们日常使用的每一款AI芯片的重要组成部分,而基于光学的AI计算技术很快就会问世。”索尔格说。他同时还是佛罗里达半导体研究所战略计划的副主管。
对谷歌、微软、亚马逊这些拥有大规模AI业务的公司来说,节能可不只是环保那么简单——它意味着能大幅降低运营成本。一款能耗更低、性能却不打折的光基芯片,对他们来说吸引力十足。
除了AI领域,光基芯片还能加速那些现在需要数月才能完成的科学模拟,比如药物研发、气候模型构建等,甚至可能彻底改变这些领域的发展节奏。长远来看,它能改写从智能手机应用到全球数据中心的运作模式,给不堪重负的电网减负,引领AI走向更可持续的未来。
如果光基芯片能广泛应用,带来的影响会很深远:数据中心的碳排放量会降低,移动设备的电池续航会延长,那些以前因为太耗电而无法实现的实时AI应用,也能变成现实。而且,光基芯片被视为“绿色AI”的关键解决方案,一旦规模化落地,不仅能减少AI技术的碳足迹,还能为光子计算与量子计算的融合打下基础。
目前,英特尔、华为等全球科技巨头都在加速布局光计算赛道,有预测认为根据 LightCounting 预测,2028 年全球数据中心硅光模块市场规模将超过100亿美元,其中CPO方案占比将超过50%。Yole预测,2028年全球磷化铟光电子市场规模将达到70亿-80亿美元。到2030年,光基芯片的市场规模将达到120亿美元。
不过,光基芯片目前还面临不少挑战。
首先是架构适配性有限。如佛罗里达大学的这款芯片主要支持CNN(卷积神经网络)的卷积层运算,但对当前热门的Transformer架构(比如ChatGPT背后的技术)的自注意力机制适配不足,而Transformer架构在自然语言处理、多模态AI等领域应用广泛,这会限制光基芯片的适用范围。
其次是集成度低。目前光子元件的尺寸比电子晶体管大不少,想在单个芯片上集成更多元件难度很大,所以光基芯片的集成度远低于CPU、GPU这些电子芯片,很难实现复杂的逻辑控制。
第三是材料耐久度差。光基芯片的突破依赖特殊的谐振环和相变材料,它们能捕获光并高精度存储其特性,但传统存储系统是为电子设计的,不是为光设计的——光的传播速度极快,捕捉和存储本就困难,而且这些特殊存储器用多了还会失效,限制了芯片的使用寿命。
第四是制造良率低、成本高。比如芯片上的菲涅尔透镜,蚀刻精度要求极高(误差不能超过±3nm),目前量产良率只有65%,单芯片成本约80美元,是同性能ASIC芯片(约15美元)的5倍以上,这对大规模推广很不利。
第五是光信号损耗。硅基波导的传输损耗约为5.6dB/m,如果把芯片面积扩大到10mm×10mm,就需要增加光放大器模块,这会让功耗上升15%-20%,又会抵消一部分能耗优势。
当然,研究人员也明确表示,光基芯片不太可能完全取代传统处理器——传统处理器在通用计算领域仍有不可替代的作用,而光基芯片更适合特定任务,尤其是AI和机器学习相关的计算。
预计光基芯片会在2026-2028年进入规模化应用阶段,而全面普及预计需至2030年后。光基芯片的早期应用可能会出现在自动驾驶汽车、工业自动化等专业领域;而要在消费产品(比如手机、平板电脑)中广泛应用,还需要更长时间,得等技术更成熟、生产成本降下来才行。
但不管怎样,光基芯片的开发,已经标志着AI发展的一个重要转折点。通过借助光的力量,研究人员正在为AI铺就一条更强大、更可持续、更易普及的未来之路。
来源:轩辕商业评论