福布斯:特斯拉的FSD一团糟,它应该合法吗?

B站影视 港台电影 2025-09-23 23:11 2

摘要:马斯克一直大力宣传特斯拉是自动驾驶领域的重要参与者,无论是在Robotaxi市场,还是在基于FSD的个人汽车领域。他令人咋舌的1万亿美元薪酬方案包括在未来十年内让100万辆特斯拉Robotaxi上路,并拥有1000万名活跃的FSD用户,因此他们的成功将直接为他

福布斯与著名特黑联手搞特斯拉了!

以下文字内容来自福布斯:

马斯克一直大力宣传特斯拉是自动驾驶领域的重要参与者,无论是在Robotaxi市场,还是在基于FSD的个人汽车领域。他令人咋舌的1万亿美元薪酬方案包括在未来十年内让100万辆特斯拉Robotaxi上路,并拥有1000万名活跃的FSD用户,因此他们的成功将直接为他带来经济利益。

这是否可行还有待观察,但《福布斯》对最新版FSD的评估发现,它仍然容易出错。在洛杉矶的居民区和高速公路上进行的90分钟试驾中,搭载特斯拉最新硬件和软件(AI4,FSD V13.2.9)的2024款Model Y忽略了一些标准交通标志和限速标志;在有闪烁信号灯和行人的人行横道处没有减速;进行了无意义的车道变换并在奇怪的时间加速,例如在驶出匝道尽头红灯的拥挤高速公路时。也没有迹象表明该公司已经修复了两年前发现的一个令人担忧的故障:在看到闪烁的校车标志时停车,表明儿童可能即将过马路。

事实上,这项最近被重新命名为“FSD(监督版)”的功能存在很多容易发现的问题,这不禁让人产生疑问:为什么这项价值8,000美元、每月99美元订阅费的功能,在目前的形式下是合法的?

答案其实很简单:“驾驶辅助系统不受监管,所以不存在合法性问题,”乔治梅森大学教授、人工智能专家米西·卡明斯(Missy Cummings)说道,她曾为美国国家公路交通安全管理局(NHTSA)的自动驾驶汽车提供咨询。“NHTSA有权介入,但到目前为止,他们只在驾驶员监控不力的情况下才介入。”

美国首名特斯拉车主在使用该公司自动驾驶辅助软件时遭遇车祸身亡(2016年5月的约书亚·布朗案)已过去九年,但美国监管机构仍未针对所谓的二级驾驶辅助技术(FSD所属类别)制定明确规则,仅要求通过车内监控确保人类驾驶员关注路况。这一监管空白为马斯克推广2020年首发的FSD提供了机会——车载显示屏将其宣传为"几乎无需"人工干预的自动驾驶功能。而作为其未来薪酬方案的一项考核指标,该系统更广泛的普及将为他带来巨额收益。

美国国家公路交通安全管理局(NHTSA)上个月对特斯拉未能及时报告FSD和Autopilot事故展开调查,并表示其“不会预先批准新技术或车辆系统”。相反,汽车制造商需要自行证明车辆和技术符合联邦安全标准。一位发言人表示,如果调查发现某个系统不安全,“NHTSA将采取一切必要措施保障道路安全”。

马斯克对FSD功能的评价直截了当:“特斯拉自动驾驶技术极大地提升了您在数千小时的用车过程中的生活质量和安全性。” 该公司还通过视频宣传该系统,展示了其在公路行驶中看似完美的性能。然而,特斯拉在向NHTSA陈述时却更加谨慎。该机构表示:“特斯拉将其系统描述为2级部分自动化(包括‘FSD监督版’),需要驾驶员全程保持注意力集中,专注于驾驶任务。”

在遭遇法律挫折之后,对特斯拉技术的审查日益严格,其中包括特斯拉车主因马斯克夸大FSD和Autopilot功能而发起的联邦集体诉讼,以及加州车辆管理局 (DMV) 禁止该公司在该州使用这些名称来命名这些功能。上个月,在佛罗里达州的一场联邦审判中,陪审团还裁定,特斯拉对2019年发生的一起致命车祸负有部分责任,该车祸发生在其Autopilot功能启用期间,并要求其支付2.43亿美元的赔偿金。该公司正在对判决提出上诉;上周,该公司就加州另外两起与Autopilot相关的车祸诉讼达成和解,Autopilot的驾驶辅助功能比FSD更有限。

这家总部位于奥斯汀的公司还在其总部所在地运营一个试点Robotaxi项目,面向有限数量的特斯拉车主,车主只需支付象征性的费用即可使用。其使用的FSD版本与提供给客户的版本略有修改,但特斯拉尚未对此做出详细说明。自6月份推出这项服务以来,特斯拉遇到了许多问题,包括7月份一天内发生的三起事故报告。

与Waymo在美国多个城市以全自动模式运营其自动驾驶出租车不同,目前前排座位上有一名安全驾驶员来监控FSD的性能。

“这是一个 alpha 级产品。它不应该交到客户手里。它只是一个原型,而不是一个产品。”——丹·奥多德(Dan O'Dowd),黎明计划创始人

根据TeslaDeaths.com根据新闻报道汇总的连续统计,涉及使用Autopilot和FSD的事故已造成59人死亡。

马斯克和特斯拉没有回应对FSD安全问题发表评论的请求,但预计很快就会发布该软件的更新版本。

《福布斯》最近对特斯拉最新的FSD进行了90分钟的评估,该系统于8月28日更新,评测对象是一辆搭载特斯拉最新硬件的2023款Model Y。这辆车的所有者是“黎明计划”(Dawn Project),这是一个由软件开发者丹·奥多德(Dan O'Dowd)创建的组织。近年来,奥多德一直直言不讳地批评FSD系统,甚至自掏腰包拍摄超级碗广告,以提高人们对FSD缺陷的认识。

就目前的情况来看,“这甚至连一个测试系统都算不上,而是一个alpha级别的产品。它永远不应该交到客户手里,”奥多德告诉《福布斯》。“它只是一个原型,而不是一个产品。”

FSD有时会让人感觉像一个自动驾驶系统。输入地址,它就能在免提驾驶模式下顺利启动。它会在转弯时发出信号,在停车标志和红绿灯前停车,并且通常能够根据中控台上显示的虚拟图像观察周围环境。然而,即使在交通畅通和天气条件良好的情况下,尤其是在城市街道上,FSD也经常出错,这意味着驾驶员必须高度集中注意力,随时准备接管控制。正因如此,即使你是一位专注的驾驶员,使用它也不会比人类驾驶更简单或更轻松。

两年前,奥多德的“黎明计划”对一辆停放的校车进行了一次简单的FSD测试。当特斯拉靠近时,校车侧面的停车灯会弹出,提醒司机停车,让儿童安全通过。在最初的测试中,特斯拉每次都未能停车,甚至当一个儿童尺寸的人体模型从校车前方穿过时,它也没有减速。本月,《福布斯》杂志重复了这项测试 ,特斯拉再次失败;它没有在警告标志前停车,并再次撞倒了“黎明计划”的人体模型Timmy。

不久之后,我们用直接从应用程序召唤的Waymo再次进行了测试。车辆在路牌前停了下来;直到路牌收回后才移动,而且没有撞到Timmy。

“两年多前我们就报道过特斯拉校车的事,但他们什么也没做,”奥多德说。“我们在《纽约时报》上登了整版广告。然后我们又做了一个超级碗广告来展示它……但(特斯拉)什么也没做。”

问题不仅仅出现在闪烁的校车标志上。据一些车主称,当道口闸门降下、灯光闪烁时,FSD似乎也不会在火车轨道旁停车。令人不安的故障报告屡见不鲜。一位车主表示,他的特斯拉Model 3(搭载FSD V13.2.9)在进行无保护左转时突然停了下来,而迎面驶来的车辆正迎面驶来。

特斯拉汽车俱乐部的一篇帖子写道:“一辆汽车以大约45英里/小时的速度向我驶来,我停了下来,在车道中间徘徊。” “我迅速踩下油门,试图抢过FSD,但接下来发生了意外。汽车迅速倒车……!” 幸运的是,这让汽车避开了迎面而来的汽车,车主身后没有人,他被这次经历吓坏了。

在评估中,汽车评测员兼研究员 Edmunds 发现FSD软件有所改进,但也存在一些“恼人”的问题。“它无法在车道内进行细微调整以避开道路上的障碍物,例如路毙的动物、爆胎碎片或坑洼,” Edmunds说道。“这本身就不好,但更糟糕的是,FSD也不喜欢你主动控制方向盘进行这些调整。为了避开道路上的障碍物,方向盘稍微打偏一点,整个系统就会突然关闭。”

Edmunds 不建议客户为当前形式的FSD支付8,000美元。

FSD躲避道路碎片的问题让两位特斯拉影响者非常恼火,他们试图实现马斯克在2016年首次做出的让汽车自动驾驶穿越美国的承诺。根据其中一位影响者“大胡子特斯拉男”发布的视频,从圣地亚哥出发约60英里后,他们的新款Model Y未能避开高速公路车道中间的大型金属物体,导致车辆底部严重受损。

《消费者报告》和美国公路安全保险协会(IIHS)均未对FSD进行详细评估,而这两家机构的评估对汽车行业和监管机构都具有重大影响力。不过,IIHS将特斯拉的FSD驾驶员警报功能评为较差。

如果美国国家公路交通安全管理局 (NHTSA) 发现特定车型或功能存在重大安全问题,有权向汽车制造商发出“停售”通知。2016年,NHTSA向初创公司Comma.ai发出了一封“特别订单”函,要求该公司停止销售一款用于部分车型自动驾驶的售后产品。这导致Comma.ai当时暂停了该设备的销售计划。

奥多德表示,美国国家公路交通安全管理局(NHTSA)应该对FSD采取类似的措施,尽管目前尚不清楚是否会这么做。目前,“黎明”项目正在为加州总检察长罗布·邦塔和美国众议员萨鲁德·卡巴哈尔等政府官员提供类似《福布斯》杂志的驾驶评估,以展示该功能的不足之处。奥多德的公司Green Hills Software长期以来一直是国防部和飞机制造商的软件供应商,并为“黎明”项目提供资金。他拒绝透露该项目目前的预算细节,但表示预算“相当可观”。

“如果某种药物实际上并不能治愈癌症,制药公司就不会把它称为万能的、彻底的癌症疗法。没人会这么做。你会被起诉,被关进监狱,他们会夺走你的一切,”奥多德说。“但(马斯克)每天都这么做,因为政府里没人会采取行动。目前没有监管机构会采取行动。这正是我们存在的意义。”

马克·罗斯金德 (Mark Rosekind) 曾是Robotaxi开发商Zoox的首席安全官,也是2016年第一起特斯拉Autopilot致命事故发生时的国家公路交通安全管理局 (NHTSA) 的管理员。他认为,需要对FSD等技术制定新的法规,并由外部专家实体进行验证。

他告诉《福布斯》:“如果你真的希望自动驾驶汽车在发展过程中确保安全性、透明度和信任,就需要通过真正创新的方法来加强和完善联邦体系。” 这应该包括“补充性的第三方独立中立项目……以及为证明其安全性而必须满足的某些要求。透明度将建立信任。”

目前,自动驾驶汽车研究员卡明斯发现了一个可能将特斯拉技术缺陷最小化的因素。“FSD的弊端在于,大多数人都明白它的可怕之处,并且密切关注它,”她说。

来源:不看车一点号

相关推荐