光速运算来了!光计算打破电子架构限制,重塑AI未来

B站影视 日本电影 2025-11-18 13:41 1

摘要:现在的AI大模型是越来越能打了,但背后的算力消耗简直离谱,训练一个GPT-4这样的模型,够50万台高性能服务器连轴转七天,电费账单想想都让人头皮发麻。

现在的AI大模型是越来越能打了,但背后的算力消耗简直离谱,训练一个GPT-4这样的模型,够50万台高性能服务器连轴转七天,电费账单想想都让人头皮发麻。

更关键的是,传统GPU已经快扛不住这种需求了,物理极限就在那儿摆着。

就在大家都在发愁的时候,阿尔托大学团队在《自然・光子学》上发表的“单次张量计算”技术,算是给行业带来了个大惊喜。

AI这几年的发展速度,真是超出了很多人的预期,模型参数从数十亿一路飙升到数万亿,对算力的渴求就像无底洞。

以前觉得GPU已经够强了,并行计算能力甩传统CPU几条街,可架不住模型越来越大,GPU的冯・诺依曼架构有个天生的毛病,计算单元和存储单元是分开的,数据得在两者之间来回跑,这就形成了所谓的“内存墙”。

数据量小的时候还不明显,现在模型大到一定程度,数据传输的时间居然比计算本身还长,这效率能高才怪。

能耗问题更是让不少企业头疼,全球数据中心的电费本就不是个小数目,其中AI训练和推理占了相当大的比重。

一次大型语言模型的训练,消耗的电量差不多相当于几百个普通家庭一年的用电量,在现在都讲究可持续发展的大背景下,这种高能耗的模式肯定走不长远。

本来以为只能靠GPU厂商慢慢迭代硬件,没想到光计算这个“老概念”突然焕发了新生。

可能有人会觉得,光怎么能用来计算?这东西听着就特别高科技,其实光计算的想法早在上世纪60年代就有了,只是以前技术不成熟,一直停留在实验室阶段。

阿尔托大学团队的厉害之处,就是把这个想法变成了能适配AI运算的实用技术,他们的核心思路很简单,就是利用光的传播和干涉来做运算。

光波有振幅和相位两个属性,研究人员把数字信息编码到这两个属性里,当多束光碰到一起的时候,它们的干涉模式自然就完成了数学运算。

这种方式被称为“被动计算”,不需要外部电路驱动,光在传播过程中就把活儿干完了,张宇峰博士那个比喻特别形象,传统方法像海关逐台机器检查包裹,而这个系统就像包裹通过时自动完成所有检查,一步到位。

更有意思的是,他们还用到了多波长并行处理技术,不同波长的光就像不同的计算通道,能同时处理不同维度的运算。

这技术在光通信领域早就成熟了,用到计算上还是头一回,通过设计特殊的光学元件,能让每个输入精准对应输出,完成复杂的张量变换。

要知道,张量运算可是AI深度学习的基石,不管是卷积神经网络还是Transformer架构,核心都是这玩意儿。

所以说,这技术能直接对接现有AI应用,可不是空架子,孙志培教授提到,这个技术的可扩展性很强,不管是自由空间光学系统还是集成光子芯片都能实现。

本来想,这种高科技肯定特别娇贵,没想到适配性这么广,而且它的能效优势太突出了,执行同样的运算,能耗比电子计算低了好几个档次。

这对于那些需要实时处理海量数据的场景来说,比如自动驾驶、实时视频分析,简直是刚需。

虽然技术原理听起来很完美,但从实验室到真正商业化落地,还有不少路要走,张宇峰博士说,预计三到五年内就能整合到各大公司的平台上,这个时间表看着还挺乐观。

不过能不能顺利实现,还要看几个关键问题能不能解决,首先是环境敏感性的问题。

光学系统对温度变化、振动都很敏感,稍微有点扰动就可能影响计算精度,现在斯坦福大学已经在研发自适应温控光学模块,据说能把环境影响降低很多。

还有可编程性的问题,AI运算需要灵活调整,光学系统怎么做到像GPU那样可编程,也是个不小的挑战。

好在现在已经有团队在做光子-电子混合架构,既能发挥光计算的优势,又能兼容现有系统,算是个不错的解决方案。

全球现在有不少机构都在盯着光计算这块蛋糕,麻省理工学院开发了基于马赫-曾德尔干涉仪阵列的光学神经网络芯片,Lightmatter这样的初创公司已经完成了巨额融资,估值都到30亿美元了,而且他们的产品已经在微软Azure数据中心试点。

国内中科院也发布了自己的“光子张量核心”芯片,能效比相当亮眼,如此看来,光计算不是某一家的独角戏,而是全球竞速的赛道。

个人觉得,光计算短期内不会完全取代GPU,更可能是作为辅助加速器,和GPU搭配使用,毕竟现有GPU生态已经很成熟了,一下子全部替换不现实。

但长期来看,在AI推理、边缘计算这些场景里,光计算大概率会占据主导地位,尤其是随着光子芯片制造技术的进步,制造成本会慢慢降下来,到时候普及速度可能会超出预期。

AI产业的发展一直是硬件跟着软件跑,软件模型越来越大,倒逼硬件技术革新,这次光计算的突破,算是硬件领域的一次主动突围。

它不仅能解决当前的算力和能耗问题,更可能让更大规模、更复杂的AI模型成为可能,当计算不再受限于电子开关的速度和能耗,人工智能的应用边界说不定会被大大拓宽。

现在回头看,阿尔托大学的这项技术之所以引发这么大关注,不仅仅是因为它的技术创新性,更因为它切中了AI产业的痛点,在这个大家都在拼模型、拼算力的时代,谁能解决效率和能耗的问题,谁就掌握了未来的主动权。

光计算的故事才刚刚开始,接下来的三到五年,应该会有更多令人惊喜的进展,我们不妨拭目以待,看看“光速运算”能不能真正走进千家万户,改变我们的生活。

来源:律行僧

相关推荐