正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2016-07-03 03:21
第一起命案发生,自动驾驶已驶入“恐怖谷”

虎嗅注:“恐怖谷”理论,原本是日本机器人科学家森政弘1970年发表的同名论文,文章提出仿人机器人会使人产生一种其他机器人所没有的、独特的不适感。而在人工智能突飞猛进的今天,由于移情错乱导致的心理恐惧也日益加深——AI威胁论,这也正是“恐怖谷”的真实演绎。心理上的恐惧,与科技和安全性能无关。


不久前因自动驾驶事故去世的那位Tesla车主Joshua Brown,让我想起Tesla的另一个粉丝,我的小老板,一个高大帅气有着迷人双眼的法籍保加利亚人。每周的例会只要有他,那么一定有一个保留曲目就是畅想未来。他当然首先是一个科技粉儿,初次尝试3D打印建错了模型得到了一个实心的水杯,就一直摆在桌上。他不止一次的跟我说“WJ,你知道目前最安全的车是什么牌子吗?WJ,你一定要有一辆Tesla,WJ…...”。


后来,我还没离开学校,他就跑去自己开公司了。和他类似,我见到身边很多的geek,自己在家搭机器人,自己监控屋里每个插头的用电曲线,还有自己组装一个只能在停车场开着玩儿不能上路的电动车的。他们由衷地为每一次科技进步感到高兴。


我相信Joshua Brown也是这样。作为一个科技工作者,对他最大的尊重和告慰,就是正视自动驾驶面临的重重困境,攻克它们,为了未来的车主和行人的安全。

 

车的问题:技术上的困难

 

  • 对环境的感知

 

先说自动驾驶里的另一个巨头谷歌。关于谷歌无人驾驶汽车(以下简称 G-car),一个长久以来的误解可能就是:它是全凭自己在行驶过程中实时“看”到的情境来做决定的。


而事实上,它走过的每一步都是工程师们用汗水洗刷过的——他们会事先在目标路线上来回数遍,绘制一份尽可能详尽的3D地图教给 G-car。显然这是个很耗时的工程,那么为什么要这么做呢?

 

 

答案是为了省下运算时间和能量,来处理行人,车流和其他各种实地行驶过程中的突发状况。可是,谷歌的 3D 地图目前也只覆盖了很有限的几片实验田,如加州景山。待到自动驾驶上路那一天,这样地图不仅要大面积覆盖,而且要随时更新,这庞大的工作量不言而喻。

 

然而计划总是赶不上变化,牛津大学的研究者对英格兰一条长6英里的街道特征进行了为期一年的记录——结论是街景始终在改变,单是一个转向路标就挪动了三次。如果再考虑到天气变化,难度就更大了。常常大雪封山的日本北海道,为了给司机标示出路面的宽度,随处可见下图这样指向路肩的小箭头。如果你对电影《非诚勿扰》还有印象的话,很自然就会想起笑笑姑娘(舒淇)曾经告诉过你它们是做什么用的,可是,如果你的爱车没看过呢?



对此,谷歌的信心来自于,随着越来越多的自动驾驶车上路,会有源源不断的路面信息传回绘图小组。当然,如果各个公司的自动驾驶研发团队能够共享信息的话,这个进程会快很多。

 

从另一个角度来讲,提前绘图也不是唯一出路,钢铁侠的 Tesla 就更倾向于依赖对图像和传感器信息的实时处理。相比G-car,看似Tesla更保守一点:只提供辅助驾驶,并要求司机保持警觉随时准备在必要时接管车辆。实则不然:并没有商用化的G-car允许它一直慢慢开,而Tesla的 autopilot 则是高速行驶的,这对处理时延提出了很高要求。

 

据了解此次事故一方面原因是图像处理系统没能分辨出白色车体和背景天空。在更细致的调查结果出来之前,不妨大胆揣测一下没能分辨的原因。


目前的图像处理和显示领域,最热门的就数高动态技术 HDR了。其目的是处理更宽的亮度范围。如下图所示,日常生活中的常见物体亮度是落在一个非常宽的区间里的,从接近全黑的0 nt 到直视日光的16亿nt(nt是坎德拉每平方米cd/m2,用于标识显示设备的亮度 )。比如普通电脑屏幕可显示的最高亮度为300nt。而受限于比特深度和处理速度,目前服务于人眼的图像采集和处理设备只能应对不到1000nt以下的亮度。也就是说,亮度高过一定阈值,数字系统就不能分辨二者差异了,因为两张过曝的画面看起来是一样的。

 

对于车载系统,需要能够迅速处理大亮度范围的图像。这一方面要求接收端能一次采集亮度范围很宽的图像,而不是像现在多次采集不同子范围的图像再合成(就像换几副深浅不一的太阳镜看一个景物一样);另一方面需要快速的处理,既要分辨图像中的物体边沿,又不能损失过多细节纹理。对速度的要求,大大增加了难度。



  • 对意图的理解

 

仅仅看到周围是远远不够的,你还要知道正发生着什么:一个飞舞的塑料袋需要躲避吗;路旁的行人确定是要过马路吗;交通警察的手势又是意思,等等等等。这对计算机视觉提出了非常高的要求。

 

就像一个坏脾气的学霸在给你讲解习题的时候常常咆哮的那样:为什么这么简单的东西你就是不懂?这其实是在人类理解机器视觉或者笼统的讲,机器学习,的时候常常遇到的一个困境,即机器善于处理我们认为的困难问题比如下棋,可更多的时候它像个书呆子一样面对现实生活一筹莫展,尤其是涉及推断另一些人的决策的时候。


正如今年2月14日G-car的遭遇一样,它天真的以为后面驶来的公交车会让路给它,而这次任性的变道结果就是:

 


无独有偶,5月另一起Tesla 的事故是由于它前面的一辆正在行驶的车为了避让路边停靠的小货车变道了,于是后面一根筋的 Tesla 就径直撞上了小货车—它并没有发现停靠的车辆,当然更没有从前车的变道中悟出点什么。


 

诚然类似的错误人类司机也是难免,并不是要求自动驾驶汽车面世伊始就开得天衣无缝,观众们的普遍要求是:比人类司机好就行。但仅此一点,都还没能实现。要知道G-car自2009年起,已经累积了130多万英里的驾驶经验,而与之相比的是,美国司机平均行驶近亿英里发生一次致人员死亡的严重交通事故。以目前自动驾驶这么小的里程样本,还远不足以驱动传统的计量方法来对它统计意义上的安全表现给出可靠的估计,简言之,它还有很长的路要走(字面意思也没错)。与此同时,也需要开发新的检测自动驾驶技术安全性能的方法,否则以现在这个速度,实验到天荒地老也难有结论。

 

而辅助驾驶方面,Tesla的数据更好看些,直至5月7日的重大交通事故为止,已经累计了1.3亿英里。但并不能说Tesla就优于人类司机了。


首先,每一亿英里和直至一亿英里是两个不同的概念;其次,这个成绩是在人类和机器“同时”驾驶的情况下做到的,因为我们并不知道是否有人类及时干预避免了重大交通事故的情况;最后,还要注意到自动驾驶是有适用条件的。正如Elon自己说的那样,几年内90%的里程可以自动化。不难假设,这是情况比较简单的那9成。所以对1.3亿英里这个数字最乐观的解读是:在9成相对简单的里程中,人工智能的驾驶表现有可能优于人类。

 

  • 对“人-车接口”的控制

 

正如 Tesla的选择一样,自动驾驶多配合电动汽车,这一方面得益于电机易于精确控制,另一方面也是二者受众重合度高,便于推广。只要前面两个问题(感知和理解)处理的好,且行人没有摆出各种经典的道德困境队形(如 trolley dilemma)来刁难它,“开车”这件事情本身并不是很困难。自动驾驶普及并联网之后会是一片喜人景象。线路优化,汽车共享,智能交通统统不再是梦,更不用说规模效应一旦形成,路标交规行人等,都势必会做出相应的调整以适应,这样一个自动驾驶友好型交通环境,会反过来减轻它感知和理解方面的困难,形成正反馈。

 

而在这之前,即便是最先进的自动驾驶汽车还是会时不时地身陷超出其智慧所能处理的环境。届时,就靠人类接管了。于是引出了自动驾驶或者更广泛的意义上来讲,辅助驾驶,都面对的一个问题,交接。它该如何把备胎驾驶员从睡梦中摇醒(下图,Tesla 司机在自动巡航时睡着了),从电影拉回现实,或者中断他的通话成功的引起他的注意?


 

相比于声音和光线,人们发现还是直接“摇醒”更有效:震动刺激只需0.8秒钟就可以让一个正专注于回邮件的乘客切换到“司机”模式。那么于此同时,车辆该怎么告诉他危机所在的方位呢?


之前有研究显示,人对其水平方向上震动触觉的感知可以精确到10度,所以可以根据需要人类查看的空间方位来刺激相应的人体部位。不过,即使震动警告可以有效做到这一点,让它跟繁杂的其它信号如灯光,蜂鸣,语音等同时作用,可能反倒让人无所适从:大脑被“警报洪水”过载了。

 

为了避免上述情况。合理的建议是不同的警告模式用于人类接管过程中的不同阶段。比如用震动来唤起人们的注意力,再用可视化的方法告知危险方位,这样一来就同时利用了二者的优点:既触觉使人迅速反应,视觉精确告知待处理的情况。

 

不过笔者仍然觉得,人-车交接这种情况作为全自动驾驶之前的权宜之计,对人类的要求有点高了。虽然Tesla要求司机在进入自动驾驶模式之前“同意”关于保持警惕负责等等的条件,但这实际上只是免责条款罢了,自动驾驶得越好,人就越快把那根筋绷的弦松懈下来。这到底是福是祸呢,下面我们把技术问题先放一放,审视一下自动驾驶触及的另一个方面,人性,或者说道德。

 

 人的困惑——信任危机

 

如果说解决车的问题要晓之以理,那么面对人类阵营就只能动之以情了。首先要面对的就是,我们准备好了吗?


各大车企在自动驾驶上砸了数十亿美元,他们迫切希望公众信任这样的汽车,可是,据密西根大学交通研究院的一项调查显示,自动驾驶的安全问题仍是司机的一块心病:四分之三的美国司机对乘坐自动驾驶汽车表示恐惧或者担忧。



当被问及是否愿意购买或者租用自动驾驶汽车时,他们的回答也不容乐观。超过三分之一的人表示:完全没兴趣。



虽然不信任广泛存在,研究显示这种疑虑会被逐渐打消。大众汽车此前做过一个名为“绿野仙踪(Wizard of Oz)”的研究,让志愿者乘坐由人类司机驾驶的汽车,但同时使他们误以为这是一台机器操控的自动驾驶汽车。尽管一开始都惴惴不安,十来分钟后乘客们都基本能够放下焦虑了。类似的关于信任的研究,佛吉尼亚理工交通研究所也有一份,他们招募了几十位志愿者,实验要求被测人员保持警惕,观察路面和周遭情况以便必要时控制汽车。但绝大多数司机都表示自己很快就放松下来了,手脚也都脱离了控制位置。 当然,如果你乘坐的是一辆值得托付的车,放松并享受是最好不过了,坏消息是,实现这个前提非常的难。所以,信任是一种能力,同样,不信任也是。只具备二者之一是危险的。

 

人类对自动驾驶的不信任,一类源自于对技术本身的怀疑态度。而另一层更深入的恐惧则直指掌握技术的那些人的道德准则。

 


在车载雷达的眼里,路上每一位行人都是一个漂浮的“生存几率”,或者说“抗撞击指数”,情非得已的时候,它也只好动用这些数字来擅自决定“牺牲”其中的哪一个甚至一些。那么,假设我们是自动驾驶汽车里的乘客,会期待自己的座驾按照什么道德准则来行事呢?是下面的左边还是右边呢?

 

 

来做个小测验吧:道德准则测试 http://moralmachine.mit.edu  。收集了大量测试结果后,一篇发表在《科学》杂志的文章作出了总结:我们希望路上所有的车都具有高尚的情操在必要的时候可以舍己为人,除了我自己乘坐的那一辆之外。(是不是暗合了你的心意。)事实上,大部分人都表示不愿购买被预写入了“舍小家为大家”程序的车辆,你呢?


 

结语

 

5月7日,自动驾驶技术走到了她的Driscoll moment面前(英国的 Bridget Driscoll 是第一起汽车交通事故致死案例中的受害者)

 

120年前,Driscoll的验尸官在报告里说,希望这是最后一个死于汽车的人。而惯看汽车工业百年跌跌撞撞前行的我们,恐怕已经不会再在Brown死后做出类似的期许了。可能就像拟人机器人要跨越“恐怖谷”一样,自动驾驶也有她自己的危险期:在你相信它之后,在它值得你相信之前。


一则有意思的小故事,说是每到911纪念日,世贸中心遗址就会竖起两道光柱,上达几千米,百余公里外清晰可辨,而对于迁徙路过的鸟群来讲,它们的生物导航系统会误以为这是自然光源,从而盘旋其周无法逃离,后来在鸟类学家建议下,光柱每隔一段时间会关闭20分钟,放飞它们。我们跟机器的共处也是一段相互的适应和学习:机器学习开车,而人类,学习与机器同行,要有两只伸出的手,才可以友好地握在一起。



原文发表于立足法国的科技投融资自媒体:科技蜘蛛(微信id:techspider)

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: