自动驾驶流派混战:纯视觉vs激光雷达,谁能笑到最后?

B站影视 港台电影 2025-09-30 11:06 1

摘要:2025年这会儿,自动驾驶出租车早不是概念了,已经真刀真枪跑在马路上,Waymo在美国旧金山、洛杉矶这些城市,摆了1500辆自动驾驶出租车,每周能接25万次付费订单。

2025年这会儿,自动驾驶出租车早不是概念了,已经真刀真枪跑在马路上,Waymo在美国旧金山、洛杉矶这些城市,摆了1500辆自动驾驶出租车,每周能接25万次付费订单。

百度Apollo更狠,全球范围投了超1000辆无人车,累计给1100多万人提供过出行服务,安全跑了1.7亿公里。

但说实话,别看落地规模这么大,行业里的技术吵架压根没停过,传感器该选哪种、系统架构咋搭、甚至大模型该当“思考者”还是“执行者”,这些争议才真决定着自动驾驶下一步往哪走。

自动驾驶要跑起来,先得“看见”世界,这一步就分成了两派,吵了快20年,最早是2004年,美国军方搞了个沙漠挑战赛,放200万美元奖金,问“怎么让车感知环境”。

卡内基梅隆、斯坦福这些高校团队,用激光雷达拿了第一,这技术能扫出3D点云图,连路边石头的位置都能标得清清楚楚,后来谷歌旗下的Waymo就接着用这套思路。

早年的激光雷达就是“奢侈品”,一套要7.5万美元,比不少家用车还贵,想大规模装在普通车上,根本不现实。

十年后特斯拉跳出来唱反调:“人类俩眼睛就能开车,机器为啥要搞这么复杂?2014年,它推出Autopilot系统,采用以摄像头为主的方案。

2016年,马斯克言辞更为直接,宣称“激光雷达是徒劳之举”,就此将纯视觉路线笃定下来。

特斯拉的玩法是用8个摄像头绕车一圈,模拟人类视野,再靠算法从2D图像里拼出3D环境,成本低廉优势尽显,可广泛搭载于各类车辆。

运行之际,能汇聚海量数据,以此反向优化算法,宛如构建起一个循环不息、持续转动的“数据飞轮”,可问题也明摆着,摄像头靠环境光吃饭,逆光、黑夜或者下大雨,性能就掉下来。

我见过有特斯拉车主吐槽,雨夜走高速,屏幕上连护栏的边缘都有点模糊,得自己多盯着点。

现在两边倒不那么死磕了,纯视觉也开始加些辅助传感器,多传感器融合这边,也越来越重视视觉算法的作用,毕竟要“看懂”场景,还得靠视觉。

主流车企,像小鹏、蔚来,依旧倾向多融合方案,毕竟,安全乃自动驾驶之核心,多一套传感器便多一份保障,在安全面前,无人敢贸然下注,谨慎选择自是必然。

即便选择了多传感器融合方案,其中仍存一小争议:既已配备激光雷达,缘何还要安装4D毫米波雷达?毕竟毫米波雷达才几百块,激光雷达早年要好几万,这差价可不是小数。

激光雷达的优势,在于能解决“极端情况”,比如路上突然窜出个行人,或者路面有块小砖头,激光雷达能清晰分辨出来,这对L4级自动驾驶来说是刚需,总不能等出了事故再补救吧?

现在Waymo用的激光雷达,识别静态物体的能力已经很成熟了,基本不会漏判。

然而,激光雷达亦惧“恶劣天气”,雨滴、雪花的尺寸与激光波长相近,会将激光散射,如此一来,屏幕上便会现诸多“噪声”,致使其难以精准识别物体。

这时候4D毫米波雷达就派上用场了,它穿透力强,不管下雨下雪还是起大雾,都能正常工作。

去年小鹏G9车主反馈,大雾天里,毫米波雷达能探到150米外的车,比当时激光雷达的探测距离还远。

然而,它亦存在短板,回波点过于稀疏,仅能标注物体大致位置,难以勾勒其轮廓,有时还会将路边广告牌误判为障碍物,此即行业内所谓的“幽灵识别”。

所以现在车企都在搞“配合术”:L4级的无人出租车和豪华车,比如WaymoOne、蔚来ET7,就多装激光雷达,再用毫米波雷达补漏,不计成本要安全。

普通的L2+、L3级车型,比如比亚迪汉EV,就用摄像头加毫米波雷达,再在车顶装1颗激光雷达,既控制了成本,又能应对大部分场,这俩不是谁替代谁,是分工干活,各补各的短板。

传感器宛如自动驾驶的“眼睛”与“触觉”,而算法架构则堪称其“大脑”,在自动驾驶领域,关于算法架构的争议之复杂程度,更甚于传感器。

早年,行业普遍采用“模块化”架构开展工作,此架构将驾驶任务拆解为感知、预测、规划、控制等步骤,且针对每个步骤独立研发算法,以此推进相关业务。

此设计的优势在于便于调试,以华为ADS3.0为例,其采用这般设计,一旦流程中某一步骤出现问题,能够迅速精准地找出根源,高效解决状况。

但毛病也明显,信息在步骤间传递时,会被简化或抽象,比如感知模块看到的细节,传到规划模块可能就丢了,最后整体效果反而不好,就像流水线作业,每个环节都达标,最后组装起来的产品未必最优。

2022到2023年,特斯拉FSDV12搞了个“端到端”架构,直接把传感器收集的原始数据,转换成方向盘转角、油门刹车这些指令,不用拆模块。

本来想这方案能解决信息丢失的问题,后来发现新麻烦:它像个“黑箱”,出了事故没法溯源。

2025年,加州发生一起事故,一辆特斯拉突然急刹,经三天排查,真相水落石出,原来是车辆系统误判,将路面阴影错认为坑洞,才导致此次意外发生。

当下,“显式端到端”方案应运而生,此方案保留可行驶区域、目标轨迹等中间数据,旨在于性能与可解释性之间探寻精妙平衡,以达更优之效。

“大脑”之外,还有“灵魂”之争,大模型该当“思考者”(VLM)还是“执行者”(VLA)。

VLM派比如Waymo、华为,觉得大模型虽然厉害,但不能让它拍板,得让它负责理解场景,比如识别“被风吹走的塑料袋”,最终决策交给传统模块,这样出了问题能追责。

VLA派比如特斯拉、吉利,觉得模型够大、数据够多,就能自己学会所有驾驶细节,甚至超过人类。

VLA太烧钱了,吉利千里H9的VLA方案,一年训练成本就1.2亿,而且溯源难题还没解决,和汽车行业的安全标准有点冲突,现在主流车企还是选VLM,毕竟能落地、能把控风险,比追求“极致潜力”更实际。

回头看这些流派纷争,其实从来不是谁赢谁输,激光雷达和视觉在融合,模块化和端到端在互补,大模型也在给所有系统加“智慧”。

那些曾经吵得不可开交的问题,最后都会变成技术进步的台阶。

说不定到2030年,L4级自动驾驶真能大规模落地,到时候我们打车,可能真就见不着司机了,而现在这些争议,都会变成那时候的“行业往事”。

来源:鉴史观一点号

相关推荐