正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2021-08-18 09:14

美国正式对特斯拉“自动驾驶”启动调查

简报显示,NHTSA 将对 Autopilot 功能,特别是其“对物体和事件检测和反应”能力,展开详尽调查。本文来自微信公众号:硅星人(ID:guixingren123),作者:光谱 杜晨,原文标题:《美国正式对特斯拉“自动驾驶”启动调查,涉及多款车型》,题图来自:视觉中国


这两天,全球新造车行业的顶尖公司都过的不太自在。


中国这边,蔚来汽车卷入了一起“年轻创业者开着自动驾驶出车祸身亡”的案件。目前事故尚无定论,众说纷纭。


而在美国这边,在特斯拉 Autopilot 辅助驾驶引发接连不断的事故之后,美国交通安全有关部门终于正式对其发起调查。


据美国公路交通安全管理局 (NHTSA)宣布,此次调查涉及特斯拉在美国发售的2014-2021款,包括S、3、X、Y在内的全部车型。也就是说,自从2014款发布之后,在美国交付的全部特斯拉车辆,都属于本次调查的范围。


消息宣布后,特斯拉股价于周一下跌4.32%,至每股686.17美元。


NHTSA 宣布启动调查的简报  截图来源:NHTSA


需要明确的是,这次美国政府的调查,并非涉及一般性质的交通事故,而是专门针对特斯拉汽车在开启 Autopilot 或其它辅助驾驶功能的情况下,仍然无视应急车辆(比如警车、消防车、救护车等)所造成的车祸事故。


之前,针对少数个别案件,美国交通安全委员会 (NTSB)曾经派出过调查员,配合当地执法人员进行处理。也正是因为 NTSB 没有行政执法权力,它也一直在呼吁 NHTSA(实权部门)针对高级驾驶辅助技术制定更加明确的监管政策。NTSB 甚至在去年责怪 NHTSA 对特斯拉这样的公司缺乏监督,间接导致事故频发。


这一次,特斯拉面对应急车辆也依然“瞎眼”,或许表明其辅助驾驶功能确实存在设计安全隐患。这次美国政府总算是坐不住了。


自从2018年以来,NHTSA 统计了总共11起由辅助驾驶相关功能导致的特斯拉车辆冲击应急车辆(以及其它事故车辆)的案件。最近一起,就发生在今年7月10日,位于加州圣迭戈。


“大部分事故发生于夜间,并且现场已经开启了警告措施,包括车辆闪灯、燃烧照明棒、亮灯的告示牌和交通锥等。”NHTSA 在调查简报中写道。


但与此同时,上述事故中的特斯拉汽车也都开启了 Autopilot 或交通感知巡航系统 (TACC),仍然会毫不犹豫地撞上去,就好像没有收到这些警告信息一样。


NHTSA 在简报中表示,除了调查提到的这11起具体事故之外,该机构还将对 Autopilot 和 TACC 的设计能力,特别是其对物体和事件的感知和反应能力 (Object and Event Detection and Response)进行更加详尽的调查。


2018年,加州 Culver City,一辆开启了 Autopilot 功能的特斯拉 Model S 轿车冲击正在处理另一起车祸的消防车,险些造成人员伤亡 图片来源:KCBS-TV


NTSB 主席 Jennifer Homendy 表示,此次 NHTSA 终于对特斯拉展开调查,代表着美国政府更加注重自动和辅助驾驶相关功能的安全性。


硅星人之前的一篇文章曾经指出,现在问题就在于:以特斯拉为代表的一小部分汽车品牌,会对相关的辅助驾驶功能进行过度宣传,夸大其能力,在用户的心中造成错误的理解,间接导致事故更加频繁的发生。结果就是,自动驾驶技术非但没有像人们期待的那样,让道路交通更加安全,反而酿成了更多事故。


据硅星人统计,自从2015年10月,特斯拉发布 Autopilot 功能以来,全球已知和 Autopilot 有关的事故已经造成至少6人死亡(美国3人,中、日、挪威各1人),导致的人员受伤更是多到不计其数。


不久前,特斯拉还向一部分车辆推送了 FSD (Full Self-Driving) beta 9 测试版软件,让这部分车主去当“小白鼠”,给特斯拉提供路测数据。


但是一些车主很快发现,这一版本的 FSD 非常不稳定、不安全,会把月亮当成信号灯,还会时不时窜入自行车道。如果真的让这些车上路,它们毫无疑问将会成为严重的道路安全隐患。美国知名消费者权益机构《消费者报告》发布报告,宣称特斯拉推送的 FSD 测试软件缺乏安全防护,对其它道路参与者带来严重风险。


也有一些技术人士表示,特斯拉在 FSD 上的问题,也应该接受政府的调查。本文讨论的 NHTSA 调查目前仅涉及公开版 Autopilot 软件。


FSD Beta 9 将月亮误认为信号灯 截图来源:Jordan Nelson


加州大学伯克利分校自动驾驶技术研究者 Steven Shladover 表示,特斯拉对 Autopilot/FSD (Full Self-Driving)的命名,以及对相关辅助驾驶/测试中的自动驾驶功能的市场营销方式“就是在刻意误导公众”。南卡罗莱纳大学教授、自动驾驶研究者 Bryant Smith 认为,特斯拉的行为已经超出了“误导”、“不负责任”的范畴,甚至应该被定性为“欺诈”。


各国对“自动”驾驶的态度


此前,欧洲一些国家已经对特斯拉这种行为展开了行动。


去年,德国反不正当竞争监管机构起诉了特斯拉。法院判决特斯拉败诉,并指出特斯拉使用了带有误导性的宣传内容,暗示 Autopilot 功能在德国合法,让消费者误认为特斯拉汽车可以在无需人工干预的前提下自动驾驶。自那以后,法院禁止特斯拉在宣传文案和产品说明中使用 Autopilot、FSD 之类的字眼。


在英国,特斯拉的当地公司曾经对部分没有升级 FSD 的用户发送促销信息,鼓励其将新车升级获得完全自动驾驶能力。


对此,欧盟新车安全评鉴协会成员、英国汽车安全专家 Matthew Avery 指出,这种宣传方式可能构成误导消费者的嫌疑,


“Autopilot 导致的许多事故都是致命的。这些司机究竟是在闹着玩,抑或更糟糕的情况。他们真的相信 Autopilot 具备完全自动驾驶的能力。我们无从得知。”


目前,特斯拉对于 NHTSA 最新启动的正式调查并没有提供任何公开回应。实际上,特斯拉去年10月解散了其公关团队,从那之后再也没有以公司身份回应过公众质询……


本文来自微信公众号:硅星人(ID:guixingren123),作者:光谱 杜晨

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: