智驾时代,为何“不完美”才是通往安全的唯一路径?

B站影视 日本电影 2025-09-25 10:39 3

摘要:你以为自动驾驶要做到“零失误”才算安全?错了。真正的安全,恰恰来自对“不完美”的预设与接纳。这篇文章告诉你,为什么智驾时代的安全逻辑,正在颠覆我们的直觉。

你以为自动驾驶要做到“零失误”才算安全?错了。真正的安全,恰恰来自对“不完美”的预设与接纳。这篇文章告诉你,为什么智驾时代的安全逻辑,正在颠覆我们的直觉。

AI时代,我们对技术抱持着前所未有的期望。从能言善辩的聊天机器人到承诺解放双手、实现端到端出行的自动驾驶汽车,人工智能似乎正将人类社会推向一个由理性与精准主导的“完美”未来。

可是,这个宏大叙事中存在一个显著的悖论:那些号称最智能、最理性的AI系统,却无法做到百分之百的准确率。

大语言模型会凭空捏造事实,我们称之为“幻觉”;而自动驾驶汽车在面对罕见路况时,则可能陷入“不确定性”的泥沼。为何在追求极致理性的AI世界里,“完美”反而是个遥不可及的幻想?当自动驾驶技术无法达到绝对安全时,驾驶员又该如何与之共存,而非陷入危险与伦理的困境?

本文将从AI技术、自动驾驶应用、人机协同与社会责任四个维度,深度剖析AI无法达到100%准确率的根本原因,并论证其价值不在于“完美”,而在于在绝大多数场景下提供超越人类平均水平的“优化”,从而为我们创造一个更安全、高效的交通生态。

在海南省海口市举办的世界新能源汽车大会上,一辆接送参会嘉宾的自动驾驶车从会场外驶过

一、技术之殇:AI“不完美”的底层逻辑

1.1 “没有免费的午餐”:算法的归纳偏好与泛化边界

人工智能的“不完美”,首先根植于其核心的算法理论。

在机器学习领域,有一个著名的“没有免费的午餐”定理(No Free Lunch Theorem,简称NFLT)。该定理的核心寓意是:脱离具体问题,空泛地谈论“什么学习算法更好”毫无意义,因为若考虑所有潜在问题,则所有的学习算法都一样好。

这意味着没有一种普适最优的AI算法能够解决所有问题。任何在某一类问题上表现优异的算法,在另一类问题上可能表现平平,甚至很差。其优劣取决于算法自身的“归纳偏好”是否与特定问题的特性相匹配。

这一理论在自动驾驶领域尤为适用。自动驾驶所面临的现实世界是一个无限开放、充满不确定性的复杂系统。在这个系统中,无法找到一个能处理所有可能情况的“万能”算法。

一个在城市道路上表现出色的算法,可能在山区或田野的复杂路况中出现误判。同样,一个能在干燥高速上稳定运行的系统,在面对雨、雪、雾等极端天气时,其性能会因传感器数据的质量下降而大打折扣。

由于对比度降低,雪会降低对侧方车辆的‍探测

因此,自动驾驶技术的健康发展,其核心范式必须从追求“算法普适性”转向“场景定制化”。与其试图打造一个在所有环境下都“完美”的AI,不如为AI设计一个清晰的“适用场景”,即“运行设计域”(Operational Design Domain, ODD)。

ODD限定了自动驾驶功能在特定道路类型、速度、天气和环境下的运行条件。例如,一个系统可能被设计为仅在完全受控的高速公路上或低速交通拥堵工况下操作车辆。

这一策略解释了为什么Waymo和Cruise等公司只在特定城市和限定区域内运营其高级别自动驾驶服务。这是一种从根本上接受“不完美”并以此为基础进行工程化设计的成熟策略。

1.2 模型的“幻觉”:评估体系与预测机制的困境

AI的另一个“不完美”表现在大模型普遍存在的“幻觉”现象。很多人将幻觉视为一种神秘的故障,但其根源并非如此。幻觉是一种“应试导向的评估体系”与“下词预测机制”共同作用的产物。

现有的评估方法,通常以准确率(即完全答对的题目比例)作为衡量标准,这激励了模型进行猜测而不是承认不确定性。

例如,当模型被问及一个它不知道答案的问题时,它被鼓励去“猜测”一个答案,因为猜对可以得分,而如果空着不答,则必然得零分。这种评估机制导致模型倾向于自信地给出错误答案,而非承认不确定性。

同时,模型的下词预测机制也加剧了幻觉的产生。在预训练过程中,模型只接触“流畅语言”的正面例子,没有“错误”的标签。这使得模型很难区分有效和无效的语句,尤其是在面对任意的、低频的事实(如“宠物生日”)时。

在自动驾驶这类高风险应用中,这种追求单一准确率评估的倾向可能带来致命后果。一个“自信地犯错”的AI(如将歪倒的自行车道立柱或超载车辆误判为不重要的物体)比一个“知道自己不确定”并主动减速或请求接管的AI更危险。

这种为了在基准测试上“跑分”更高而牺牲模型在真实世界中鲁棒性的做法,是一种技术上的自负。真正的安全不在于追求100%的准确率,而在于构建一个能够“有效表达不确定性”的AI系统。

Uber无人车存致命软件缺陷,撞人致死事故前已发生37起车祸

二、自动驾驶的“开放世界”:无限边缘案例的挑战

2.1 自动驾驶所面临的挑战远超一般AI,因为它必须在一个充满难以穷尽的“边缘案例”(edge cases)的“开放世界”中运行。这些边缘案例包括但不限于:

极端天气:雪、雨、雾会导致传感器信号散射、衰减,使感知算法置信度下降,可能无法探测到物体或错误地探测到不存在的“幽灵”物体。非标准物体:歪倒的交通锥、道路清扫车、超载的三轮车等,这些物体形态不一,难以被训练好的模型正确识别。不可预测的人类行为:随意横穿马路的行人、突然变道的车辆等,这些行为充满了随机性,使得AI的预测模型面临巨大挑战。2.2为了应对这些挑战,自动驾驶汽车通常依赖多传感器融合方案。目前,主流的技术路线主要有两大阵营:纯视觉方案:以特斯拉为代表,高度依赖摄像头,通过强大的算法模拟人脑视觉。其优势在于成本低、可利用海量数据进行迭代优化,并能实现端到端的决策系统。其短板在于对光照条件敏感,在强光、逆光或低光照环境下,识别率会大幅下降,在极端天气下的鲁棒性也较差。

Tesla经历了由“特征提取网络RegNet”向“BEV+Transfomer”、再向“BEV+Transfomer+Occupancy Network”转变

激光雷达方案:以Waymo为代表,其优势是能够提供厘米级的高精度三维点云图,对障碍物检测和避障至关重要,且在复杂路况和极端天气下能提供更准确、更可靠的环境信息。然而其成本高昂,且在雨雪天信号也会发生散射,影响性能。

将多个传感器的数据进行融合也并非易事,它对计算能力提出了极高的要求。更重要的是,当不同传感器之间出现“共识”不一致的问题时,AI将面临巨大的决策困境。如,一个传感器报告了“幽灵”物体,而另一个则没有,系统如何判断谁是正确的?

这揭示了一个核心事实:自动驾驶的“不完美”不是一个可以通过简单技术迭代就能完全解决的“技术问题”,而是一个源于“无限开放世界”与“有限感知和算法”之间根本矛盾的“哲学问题”。

因此,接受并管理这种不完美,而不是试图消除它,才是自动驾驶健康发展的唯一路径。

以下对比了两种主流技术路线的优劣:

三、人机共驾:在不确定性中构建信任

在AI无法做到100%完美的当下,人类驾驶员的角色至关重要。理解这种人机关系,是安全使用自动驾驶技术的关键。

3.1 驾驶员角色的范式转移:“操控者”到“监控者”

国际汽车工程师学会(SAE)对自动驾驶的分级标准为我们提供了理解人机关系的基础。

在SAE L0-L2级别中,人类驾驶员始终是车辆的“操控者”和“主导者”。L1车辆可以控制速度或转向,L2车辆则可以同时控制这两个方面,并可能包括车道居中等功能。

这些系统都被明确定义为“辅助”驾驶,人类驾驶员必须保持高度警觉,随时准备接管。

这种人机关系在L3级别发生了微妙而深刻的转变。L3被称为“有条件自动驾驶”,允许驾驶员在特定工况下解放双手,但在系统发出接管请求时,仍需在合理时间内接管车辆。

这一转变,将驾驶员的角色从“操控者”变为了“监控者”,再到“待命者”,而AI则从“辅助”走向“主导”。在当前技术水平下,人类驾驶员是AI不完美所留下的“责任和安全冗余”。

3.2 应对“注意力悖论”:驾驶员监控系统(DMS)的必要性

随着L2级辅助驾驶的普及,一个固有的矛盾开始凸显:系统越好用,驾驶员就越容易放松警惕,从而陷入“注意力悖论”。

系统最需要人类注意力的时候(例如面对罕见边缘案例),恰恰是人类最容易放松警惕的时候。绝大多数L2级辅助驾驶事故,都与驾驶员的失责有关,例如看手机或睡觉。

将责任完全归咎于“不专注”的驾驶员是不全面的。人类在执行“监控”任务时,其注意力和反应速度会随时间衰减,这是人类的认知特性,而L2系统设计的本质就是让人类持续处于低效的监控状态。

因此,将事故责任完全归咎于驾驶员,实际上掩盖了系统设计者未能充分考虑人类认知局限性的问题。

为了弥合这一“认知鸿沟”,驾驶员监控系统(DMS)应运而生。DMS通过安装摄像头并结合近红外技术,实时监控驾驶员的面部运动、注视方向和生理状态。

当系统侦测到驾驶员疲劳或分心时,会立即发出警示信号,并在必要时启动辅助驾驶系统,强制驾驶员重新集中注意力。DMS的出现,正是通过技术手段,将人类从一个不靠谱的“监控者”转变为一个有技术辅助、被迫保持专注的“协同者”。

3.3 明确“边界”:ODD与系统冗余的安全保障

自动驾驶的安全保障,不仅在于人机协同,更在于对系统能力的明确界定。ODD(运行设计域)正是这一界定的关键。它并非技术的限制,而是车企向消费者作出的安全承诺,即车辆只在限定工况下提供自动驾驶功能,从而避免因误用而导致的危险。

除了明确边界,领先的自动驾驶公司还通过多层冗余系统来应对不确定性。以Waymo的L4系统为例,其安全策略借鉴了航空航天等多个行业的最佳实践。

Waymo的车辆配备了备用计算系统、备用制动系统、备用转向系统以及多传感器套件,以确保即使在主系统出现故障时,也能让车辆安全停车,进入“最小风险条件”(Minimal Risk Condition)。

这种冗余设计并非为了消除所有不确定性,而是为了在主系统失败时,提供一个可控的“安全停车事件”,从而避免不可控的“事故”。这是一种从根本上接受“技术不完美”,并通过工程手段管理其风险的成熟策略。

以下表格详细说明了SAE自动驾驶等级与人机责任的对应关系:

四、伦理与法律:当AI介入“道德困境”

4.1 重新审视“电车难题”:从哲学思辨到工程解法

“电车难题”是一个著名的伦理学思想实验,在自动驾驶语境下的变体是:在事故不可避免时,系统是应该优先保护乘客、保护路人,还是选择伤害最小的方案?

这一难题吸引了公众的大部分注意力,但从工程和法律角度看,它更像是一个哲学上的“红鲱鱼”(red herring),其现实意义被过分夸大。

许多研究指出,自动驾驶的真正伦理挑战并非在于“电车难题”式的道德抉择,而在于其技术缺陷

例如,2018年发生的Uber自动驾驶汽车致死事故,其根本原因并非AI在“牺牲一人”与“牺牲多人”之间做出了道德抉择,而是软件算法的感知缺陷导致其根本没有识别出横穿马路的行人。

将讨论从一个无法解决的哲学难题,转向一个可以管理的工程和法律问题,是推动自动驾驶发展的关键。学界普遍将自动驾驶的道德算法分为两类:

一阶道德算法:这类算法旨在使AI成为“驾驶专家”。它们将现实中的交通法规、礼让行人、遵守信号灯等规则转化为可执行的代码,这是自动驾驶安全的基础。高阶道德算法:这类算法试图让AI成为“道德专家”,例如应用功利主义原则(“最多数人的最大福祉”)来决定在碰撞中牺牲谁。研究认为,这类算法既不必要也不可行,且会引发新的悖论。

因此,我们更应将精力投入到如何构建一个确保AI感知、决策和执行都符合基本安全标准的框架,这包括:谁来为系统的“黑箱”决策负责?如何处理未被训练过的“边缘案例”?如何确保数据隐私?这些现实问题远比一个理论上的“电车难题”更为紧迫和重要。

4.2 模糊的责任边界:谁来为事故买单?

自动驾驶事故发生后,责任归属的复杂性是法律界面临的严峻挑战。目前的法律框架难以适用,因为AI既不是“人”(无法承担刑事责任),也不是简单的“工具”(它能独立决策)。

围绕这一问题,业界形成了多种观点:

在法律实践中,德国等国家已经开始探索通过“黑匣子”来记录数据、界定责任的方案。当事故发生时,黑匣子能够确定在事故发生时控制车辆的究竟是驾驶员还是自动驾驶系统,从而为责任认定提供依据。

同时,“可解释AI”(Explainable AI, XAI)作为一种技术手段,正在帮助弥补AI决策过程的“黑箱”问题。XAI旨在通过特定的技术和方法,让人类能够理解并追溯机器学习算法是如何得出结果的。

这不仅有助于建立人对AI的信任,更能为法律界定责任提供必要的透明度。当AI的决策逻辑变得可追溯时,法律责任的认定也将变得有据可依,从而为解决自动驾驶时代的责任难题提供技术支撑。

展望:不完美的AI,更好的交通,走向人机协同的未来

本文深入剖析了AI无法达到100%准确率的根本原因。这一“不完美”并非神秘故障,而是AI算法的固有局限、“应试导向”的评估体系以及“开放世界”的无限复杂性所共同决定的。

我们必须接受一个基本事实:绝对的完美是不存在的,尤其是在自动驾驶这类高维、高动态的复杂系统中。

AI的价值恰恰在于其在绝大多数场景下的高可靠性。根据Waymo的报告,其自动驾驶系统的事故率远低于人类驾驶员,有效减少了造成重伤或更严重情况的事故数量。

因此,我们需要的不是一个“完美”的AI,而是一个能够通过技术手段(如冗余系统和DMS)管理不确定性、并且其整体安全水平优于人类的AI。未来的交通,其本质将是人、车、社会三方的协同,而非简单的技术替代。

相同行驶距离下,相比普通人类驾驶员,Waymo自动驾驶系统具备的表现

如何共建智能交通新生态?

(1)对消费者:

消费者应秉持“理性拥抱,而非盲目信任”的态度。在享受智能驾驶带来的便利时,必须清晰地理解技术的边界,即车辆的ODD。对于L2/L3级别的车辆,始终保持警觉,将自己视为一个负责任的“人机共驾者”,而非乘客。

(2)对车企:

车企应将宣传重点从“追求完美”转向“管理不确定性”。在技术上,通过多层冗余系统和备用机制来确保车辆在任何故障或极端情况下都能安全停车。同时,将驾驶员监控系统作为L2/L3级别的强制配置,以弥合人机协同中的“注意力鸿沟”。

(3)对监管机构:

监管机构应加速建立符合智能交通特点的法律法规,明确不同级别自动驾驶下的责任界定。同时,推动技术透明化和可追溯性,例如强制安装“黑匣子”和推广“可解释AI”,为事故责任认定提供依据。

未来的驾驶将是人与AI共舞,理性与技术并行的过程。我们需要的不是一个“完美”的AI,而是一个“更安全”的生态系统。在这个系统中,人类的智慧与AI的理性能够相互补充,共同创造更美好的出行未来。

本文由 @ai艾伦 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

来源:人人都是产品经理

相关推荐