如何看待AI加持下的汽车智能化?更好的体验能否保证汽车安全?

B站影视 电影资讯 2025-09-09 19:25 2

摘要:如果说 2024 年的 AI 还只是少数人的尝鲜,那到了 2025 年,它已经成了生活的一部分。知乎的「直答」版块,背后就是答主知识库+AI 的组合;上班的时候,DeepSeek 已经帮我处理过几次棘手的数据;开车时,语音交互和辅助驾驶也早就不稀奇了。甚至连我

如果说 2024 年的 AI 还只是少数人的尝鲜,那到了 2025 年,它已经成了生活的一部分。知乎的「直答」版块,背后就是答主知识库+AI 的组合;上班的时候,DeepSeek 已经帮我处理过几次棘手的数据;开车时,语音交互和辅助驾驶也早就不稀奇了。甚至连我爸妈,买东西前都会习惯性问一声豆包。

有意思的是,这些 AI 功能有个共同点:给定一个输入,结果往往不可预测。好用吗?好用。可它为什么让人觉得“活”呢?大概正是因为这种不确定吧。就像写一封情书,你永远不知道对方会不会回,那种忐忑和期待,本身就是魅力。AI 也是一样——变幻莫测,才让我们认定它不是普通的机器,而是真的带点智能,带点“生命力”。

也许某种意义上,智能 ≈ 不可预测?

如此一来,就对汽车行业的研发方式带来了不小的冲击。因为汽车研发一直遵循的是典型的 V 型开发模式:需求—设计—实现—验证—确认,流程图像一条“V”,所以得名。

它把整个研发过程拆得很细:左边一条线是需求和设计,右边一条线是测试和验证,两边一一对应。比如在设计一个功能时,工程师会先定义清楚输入和预期输出,等产品做出来以后,只要在测试中逐项对照,看结果是否一致,就能判断开发是否成功、功能是否正常。

那么问题来了,因为AI 功能偏偏有一个“不可预测”的本质特征:同样的输入,可能跑出不同的输出。这样一来,V 型开发模式里原本清清楚楚的“对照表”就失效了。那问题来了——V 型开发还能不能继续用?对于像我们这样在“老派模式”里培养出来的工程师来说,这不仅是研发方法论的选择,更关乎个人职业的出路:是坚持传统,还是另寻新路?

2025 年的几起辅助驾驶事故,加上官方助威的那场“大测试”,像是一记面向全民的警钟。它提醒我们:或许行业走得太快了,是时候慢下来。智能和安全,并不是非此即彼的选择题,智能必须建立在安全的底线上。

于是,整个行业开始认真思考两个问题:

第一,智能和安全究竟该如何取舍,或者说如何兼顾?第二,传统的 V 型开发模式,能不能在 AI 的创新活动中继续发挥作用?

带着这些疑问,我去了重庆。火锅的热气还没散去,就走进了长安汽车的天枢智能实验中心。它有一个特别的身份标签——国内唯一专注智能汽车安全的国家重点实验室。

第一眼看过去,其实和想象的不太一样:没有喧闹的人声,反而像一座“黑灯工厂”。机器在自顾自地跑测试,工程师只是在屏幕前远程盯着数据。

看到这一幕,我心里有了答案:AI 功能的安全性,并不是天马行空的,而是依然可以用 V 型开发模式来约束。只是这一次,需要依靠更创新的体系和方法,把测试与验证做上一遍又一遍。

当天,在工程师的带领下,我边直播边走了一圈。从一楼的仿真实验集群,到二楼的人因工程实验室,每一个环节都讲解得非常细致,让我对这座实验中心有了一个全面的认识。那一刻也更能体会到,长安为什么要花这么大力气去搭建这样一套体系。

值得一提的是,就在几天前的 长安科技生态大会 上,这个实验中心也正式亮相,成为全场的焦点之一。作为 2025 世界智能产业博览会的重磅活动,大会以人工智能+和智能网联新能源汽车为主题,长安还专门在重庆国际博览中心打造了“天枢智能馆”,约等于把天枢智能中心的缩小简化感给搬过去了,引来逛展群众和行业人士的强烈关注!

去之前我就听说,天枢智能实验中心的实验室特别多,研究的方向也挺杂。怕到时候被一堆名词绕晕,我干脆提前做了点功课,把车上的智能功能先分成三类。后来直播一路走下来,我就在心里默默对照,看能不能对上号。

第一类是智驾。 这不用多说,是最能代表“智能水平”的功能,也是大家最关心“智能”和“安全”关系的一项。第二类是座舱。 早期大家想到的都是语音交互,但趋势已经很明显——未来一定会走向多模态:语音、视觉、触控、手势一起协同。第三类是底盘和架构。 这里其实有两层含义:一方面是“AI 底盘”的概念,主动阻尼控制、空气悬挂这些硬件,通过 AI 算法可以发挥更大的潜力;另一方面,当辅助驾驶从 L2 走向 L3 时,转向和制动系统的冗余安全就成了必备工作,智能和安全在这里是绑在一起的。

当天我一共看了六个实验室:全球远程仿真实验室、生理与认知实验室、视觉系统实验室、语音交互实验室、显示光学实验室,还有整车音效实验室。

当天我一共看了六个实验室,说实话,比我想象得还要多,光听名字大家可能也会觉得头大。那能不能分个类,更好理解呢?我最后把它们归成了两大类:全球远程仿真实验集群,和 人因工程实验集群

前者是广度的覆盖——把全球各种环境、各种小概率情况都放进来测试,确保无论在哪个角落开车,都能经得起考验。后者是 深度的体验——从“以人为本”的角度,逐一研究每个 AI 功能对人的影响,比如你是会分心、会疲劳,还是能更舒适、更安心。

在直播时,我们第一站走到的一楼,就是全球远程仿真实验集群。你们可能还记得,当时一排排台架上挂着三色灯:绿灯在测、黄灯调试、灰灯待机。所有设备都接入了自研的 iTOS(Intelligent Test Operation System,智能测试运营系统),可以 24 小时不停机,工程师远程下发任务,让重庆的这栋楼变成了真正的“黑灯工厂”。

所谓“黑灯”,就是没人在场也能自动运转,这意味着可以一年 365 天、每天 24 小时测试,比依赖人工的实验室效率提升两到三倍。

可能有人会问:实地道路测试不是更靠谱吗?为什么要做仿真?我的理解是——道路测试不可替代,但仿真同样重要,二者是互补的。我在现场也琢磨了仿真的意义,至少有三点:

当一个功能在路测中暴露问题,如果要再现同样的条件,往往很难:同一条路、同一段车流、同样的天气,几乎不可能复制,或者说复现成本太高。

但在仿真环境里,只要把数据录入,就能随时“重放”问题场景。比如直播里看到的那些 整车级 HIL(Hardware-in-the-Loop,硬件在环)台架,就能把复杂的智能驾驶工况完整复现出来,让工程师在实验室里反复验证。

更关键的是,长安汽车不仅面向中国市场,更是有出海的长远规划。把产品卖到不同国家,不仅有用户需求、法律法规上的区别,更是有使用环境的巨大差异!

当全部用路测方式来验证不同使用场景时,就会遇到很多困难。比如,夏天要做冬测,可能得跑去南半球;要模拟信号不好的网络环境,中国本地几乎找不到 3G 场景。

但在这里,通过仿真,可以轻松生成各种气候、地理和网络条件。这样不仅节省时间,也节省大量差旅和场地成本。比如一楼的 网联架构测试集群,就能模拟落后地区的弱网场景,检验车机在 3G 状态下还能不能稳定运行。

对长安汽车来说,出海战略要想真正落地,必须让整个业务通过 CNPS 打通——天上一朵云(one Cloud)、空中一张网(one Net)、中间一平台(one Platform)、地上全场景(all Scene)。而天枢智能中心,正是支撑这一切的底层设施,就像盖高楼之前必须先打牢的地基

AI 功能的最大特点,就是存在小概率的 corner case。常规道路测试几乎遇不到,但量产后如果让用户遇到了,影响就太大。所以必须在实验室里先尽可能“挖”出来。仿真正是通过放大概率,就是把原本十万公里才遇一次的问题,在实验室里变成十分钟就能遇见。像这里的场景库已经构建了 3.5 万个测试场景和 2.5 万个高水平用户场景,能把问题提前三个月发现出来。

这里还有一个让我印象很深的体系关键词——三高三全

三高:高效率(架构切换从 40 天缩到 10 天,目标 3 天)、高可靠(3.5 万+ 场景库,2.5 万+ 用户场景,问题提前暴露)、高可控(纳入 TMMi 标准,体系化、可追踪)。

三全:全层域(从软件级到整车级五大测试集群)、全周期(从开发初期到量产后的 OTA)、全时空(全球远程仿真,7×24 小时不间断)。

用一句话总结,三高保证了质量,三全保证了覆盖。这也是为什么天枢智能实验中心有底气说:智能和安全,可以在同一辆车里同时成立。

除了效率和覆盖率,这里还有一个我印象深刻的点,就是他们的测试体系对标国际 TMMi 标准

TMMi:测试成熟度标准

我还专门查了一下TMMi的概念:这是一个国际通用的测试成熟度标准,总共有五个等级。长安现在达到了第三级,意味着测试已经从“项目级管理”,上升到“全公司统一的体系化运作”。比二级更专业、更标准化;同时距离四级的“全面数据化管理”只有一步之遥。

一句话理解:二级可能只是公司上万个项目中的一个,三级就是普及到整个公司,这是巨大的进展;下一步四级,就是把一些还未数据化的流程数据化,可以说只是时间问题。

如果说一楼的全球远程仿真集群,解决的是“广度的覆盖”,那二楼的人因工程实验,就是“深度的体验”。直播时我们依次走过了几个实验室:生理与认知、视觉系统、语音交互、显示光学,还有整车音效。每一个,都指向同一个核心问题——人对智能的感受

比如在生理与认知实验室,我们看到了眼动仪、肌电传感器和脑电波监测设备。它们能记录驾驶员的每一次视线转移、每一个惊吓瞬间。

实验人员告诉我,通过这些数据,他们能判断中控操作是不是繁琐,智驾接管时用户是不是紧张。这样一来,功能的迭代就不只是“能不能跑”,而是要让驾驶者“敢用、愿用”。

在实车评价区,工程师会让体验者戴上脑电波设备,模拟高速并线、遇到大车等复杂场景,实时记录心理反应。数据很直观:通过改进交互提示方式,用户的压力值能下降 72%,脑电平稳度提升 65%,对智驾的信任度提升 83%。换句话说,智驾不仅要“会开”,还要让人“敢用”。

在语音交互实验室,环境突然变得很安静,因为这是一个半消音空间。

里面的“人工嘴”能模拟 21 种语言、50 种口音,再配合全速段噪声模拟,把真实用车环境里最复杂的情况都拉进来测试。目标是让你在 120km/h 高速开窗时,说“打开空调”依然能被准确识别。旁边的显示光学实验室,则用可编程光源模拟白天强光、夜间昏暗、隧道明暗突变,确保屏幕和 HUD 不刺眼、不失真。

在生理与认知实验室,除了眼动和手指轨迹测试,还能结合驾驶模拟器复现不同悬架模式下的车身响应。通过监测心率、肌电和眼动数据,来量化舒适度和疲劳度。甚至连底盘带来的震动和车内噪声,也会纳入人因测试,用脑电和肌电指标来评估“乘坐是否放松”。这些数据最后会反馈到底盘调校,帮助工程师在“硬指标”之外加入“人体感受”。

在整车音效实验室,我第一次听到了所谓的“全景声报警音”。同样是提示音,经过算法处理后,能让你一下子分辨出声音的方向和距离。调音团队的目标是,让十万块的车也能有百万级音乐厅的体验。声音不仅是娱乐,更是安全与舒适的共同语言。

二楼的人因工程实验告诉我们:智能不只是能跑起来,还要让人用得顺手、听得舒服、坐得安心。这就是“深”的意义。只有这样的体验维度补齐,智能化才算真正完整。

回顾这次直播,我最大的感受是:智能和安全,其实不是此消彼长的关系。相反,只有把安全当成底线,智能才有可能真正落地。换句话说,此时此刻,V 模型开发模式依然有效。

一楼的全球远程仿真,是“广”的覆盖,把各种环境、各种极端情况都提前跑透;二楼的人因工程实验,是“深”的体验,把人和智能的每一次交互都研究透。广和深结合起来,才算是一套完整的智能安全体系。

所以,当我们聊汽车智能化的时候,别光盯着它是不是更“聪明”,更要看背后有没有足够严密的验证体系。就像病毒实验室守护外部世界的安全一样,天枢智能实验中心的使命,就是把风险留在实验室,把确定性交到用户手里。

来源:张抗抗KK

相关推荐