正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2020-06-02 16:00
特斯拉的自动驾驶有多坑?

本文来自微信公众号:量子位(ID:QbitAI)原标题《特斯拉自动驾驶有多坑?那么醒目的横躺大货车,只有Model 3不减速撞上去》,作者:关注前沿科技,题图来自:视觉中国


SpaceX载人发射刚成功,马斯克成了人类移民太空的希望。


但刚刚发生的这起事故,又让不少网友惊掉了下巴:马斯克了不起,但特斯拉的AutoPilot,也实在辣鸡到扶不起。


这不,开启AutoPilot的特斯拉,又撞了。


还是在一个所有人都能清晰看到的侧翻大货车事故车道,特斯拉Model 3几乎毫不减速地撞了上去。



事情发生在中国台湾。上午6点44,光线条件算不上极端,高速路上,一辆货车侧翻在地,后续来车纷纷避让。


但当监控镜头里出现了一辆白色特斯拉Model 3,画风就变得诡异了起来——这辆行驶在快车道上的Model 3,以110公里的时速,直直撞向了如此明显的货车障碍物。



一阵白烟,Model 3的车头整个都扎进了货车车厢里。



网友们都惊呆了:这么明显的障碍物,竟然完全不带减速的吗?!


事故为什么发生?依然AutoPilot


所幸,事故没有造成人员伤亡。


但如此离奇的特斯拉事故,老司机一看都猜测——又是AutoPilot的锅。


果然,警方调查证实了这一点。


据CNA报道,特斯拉车主向警方表示,事故发生时,车辆处于AutoPilot开启状态,时速定速在110公里。


他本以为,特斯拉侦测到障碍物会自动刹车。


而且从视频来看,他似乎完全放心地把车辆的控制权,交给了特斯拉的高级辅助驾驶系统。


所以当他发现前方有障碍物,Model 3却完全没有减速……等他想要接管——紧急踩下刹车时,事故已经没法儿避免。



货车司机还向警方解释称,当时他在分隔岛等待救援,看到特斯拉快速驶来,还试图挥手示意,让司机减速避让。


但特斯拉毫无反应,“嘣”地就扎进了货车车身。


特斯拉车主全责?


还没明确结果,但事故认定大概率如此。


因为有“前车之鉴”。


去年5月,美国国家交通安全委员会(交委会)曾对一起特斯拉事故案披露了调查结果。


也是一起车主开启AutoPilot状态遭遇的车祸,不同的是车主直接在事故中丧生。


但最终在调查和特斯拉的官方说明中,给出的结论让外界“无话可说”:车主对AutoPilot使用不当。



特斯拉官方还补充说:特斯拉所有的司机在使用AutoPilot系统的情况下行驶了超过10亿英里,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由自动驾驶系统支持的司机比那些没有帮助的司机更安全。


言外之意就是,使用AutoPilot的时候,车主要保持高度专注。AutoPilot很安全,出了车祸都是车主没有按要求“保持高度专注”造成的。


所以特斯拉真就丝毫没有责任?


当时外媒《连线》就直接质问特斯拉了:为啥一辆大卡车横在前面,AutoPilot的系统“看不见”?


更滑稽的是,在特斯拉的AutoPilot和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够安全。


然而事实并非如此。包含中国台湾这起Model 3的事故在内,特斯拉的车祸事故,宛如出自一个模子。



2018年3月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发生时,这辆Model X车处于自动驾驶模式。


2016年5月,一名特斯拉Model S司机在佛罗里达州威利斯顿附近被撞死,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。


更早之前,被称为特斯拉首例死亡车祸的事故中,也是AutoPilot状态下的特斯拉,没有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。


但即便如此,马斯克为了节省成本,始终坚持不用激光雷达,不搞多传感器冗余。甚至还明确放话:“视觉方案已经足够安全,用激光雷达的自动驾驶方案都是大傻X。”



激进的特斯拉自动驾驶策略


一直以来,马斯克和特斯拉,就是自动驾驶实践中最激进的玩家。


之前为了突出卖点,很长一段时间里,特斯拉都是把AutoPilot——高级辅助驾驶系统,当成“自动驾驶”来对外宣传的。


后来事故频发,舆论谴责“宣传误导”,这才改口并明确:Autopilot自动辅助驾驶功能需要驾驶员进行主动监控。



另外,也有外界猜测,其实对AutoPilot的改口,只是因为FSD——完全自动驾驶方案对外发布了。



然而,即便在专门计算硬件FSD加持的完全自动驾驶方案里,传感器方案却没有变,依然坚持摄像头(8个)+ 超声波传感器(12个)为主。



马斯克还声称,这套方案足够实现“完全自动驾驶”:“汽车能够从家里出发去工作目的地,在途中几乎不需要驾驶员操作。”


目前,特斯拉也确实在自动驾驶能力上,提供了量产的体验,比如自主泊车、主动召唤、环路和高速上的车道保持和定速,甚至还有自主变道等能力……很多特斯拉车主,也乐于秀出各种场景下的表现。


只是那些出事的“小白鼠”,再也没有机会发声了。


因为AutoPilot和FSD代表的自动驾驶落地路线,本身就有根植于人性的悖论。



特斯拉的小白鼠们


自动驾驶分级中,共分5级,级别越高,人类参与驾驶的程度就越低。


特斯拉的AutoPilot,虽然特斯拉长期以“自动驾驶”对外宣传,但业界始终认为处于L2~L3之间,属于高级辅助驾驶。


这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。


矛盾之处也正是如此。



一方面,AutoPilot可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。


这就要求一个长时间放松的人,必须还要时刻专注在车程中。


换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。


很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。


于是当“老师点名提问”来临,他们往往措手不及。


当然,特斯拉也并非完全没有针对性方案。


比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘子就能“骗”过特斯拉的系统。



而且现在特斯拉FSD全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马斯克就认为足够开启全自动驾驶了。


该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全自动驾驶。


马斯克还放话说要推出RoboTaxi,推动100万辆特斯拉成为无人驾驶出租车。


至于安全准备,马斯克不以为意。


在RoboTaxi的落地推进中,Waymo实际路测到2000万公里,还小心翼翼在中西部城市凤凰城郊区保守体验。


而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶路测。


什么叫阴影模式?就是特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“阴影模式”帮助特斯拉后台迭代自动驾驶算法。



很多特斯拉车主,也对此觉得并无不妥。


如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸发生。


然而,一旦有车祸发生,特斯拉不会像Uber无人车那样被直接追责,特斯拉官方和其他车主会异口同声说:AutoPilot很好,使用不当是当事车主的错。


你说,这样的小白鼠哪里找?


所以,每一次这样的事故后,只能给特斯拉车主送上老生常谈的提醒:道路千万条,安全第一条,行车不规范,亲人两行泪


本文来自微信公众号:量子位(ID:QbitAI),作者:关注前沿科技

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: