为何最近自动驾驶汽车接二连三的发生事故?

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  


腾讯科技编者按】会开车的人有不少,而且越来越多。其中有相当一部分以“老司机”自居,对自己的驾驶技术很有信心。有人从十几岁就开始开车,甚至开车已经成为了自己生命中的一部分。当然,当我们在路上心里默默骂着另外一位撞上自己的司机时,可能不会认识到其实能够安全的在马路上开车是一件极其复杂的任务。这不仅仅是驾驶一辆汽车沿着道路行驶,而是对周围环境中存在的数百个不同目标所作出最合理的反应。

因此为汽车设计的自动安全系统,就必须要在所有情况下都能可靠的运行,而不是在错误的时间触发错误的指令,这是很有难度的挑战。之前我们都认为,汽车驾驶员在出现事故时要负主要责任,而安全系统只是作为一种辅助的手段存在。但当我们开始讨论自动驾驶技术的时候,这种假设就不太合理了。我们现在已经拥有了各种各样的驾驶辅助系统,其中最著名的就是特斯拉的Autopilot,它可以在很多情况下实现对汽车的完全控制。但尽管这套系统很智能,但如果驾驶员没有给予足够的注意力,那么Autopilot系统依然会出现一些“愚蠢”的选择,比如追尾、撞上护栏等。

因此我们不妨来看看这些自动辅助驾驶系统的工作原理以及发生时候的具体原因。

该不该刹车


当自动紧急制动系统(AEB)失灵时,就会发生事故,我们通常更关注如何让AEB系统更敏感、反应时间更短。而这套系统的开发者们还需要面对另一种担心,那就是避免在不合理的情况下紧急刹车。比如在车流密集的高速公路上,如果有一辆汽车不恰当的紧急刹车,就会引发与刹车失灵后果一样严重的交通事故。

比如最近丰田就召回了几款配备了AEB系统的车型,其中一些型号经常会因为一些路面上小小的金属片就触发紧急刹车功能。除了在识别潜在危险目标方面容易出错之外,AEB系统也无法读取驾驶员的想法。比如当你在开车时想要稍稍加速,就会慢慢变换到其它车道,否者就会发生事故。但AEB系统不知道这一点,因此当系统判断碰撞不可避免,或者需要进行评估时,往往就会非常保守。比如沃尔沃的City Safety系统就经常会被不恰当的激活,而这也是导致2015年一场由于自动停车演示事故而造成人员伤亡的原因之一。

驾驶员并不了解驾驶辅助系统

顶级汽车厂商有几种不同的自动安全系统,但每一种都有自己的限制和能力范围。其中大多数都限定在特定的速度范围内才能有效工作,并且只在特定的情况下或针对特定的目标有效。此外,厂商对系统的描述往往以专业术语为主,所以普通车主很难搞清楚它究竟能做什么,以及究竟有哪些限制。

有研究人员对车主进行了调查,结果显示大多消费者对汽车的安全系统能做什么、不能做什么都没有详细的了解。用户只知道这些就是一种额外的保障措施,但依然还需要驾驶员对事故承担责任。如果触发了系统“自动干预”,就算是额外的幸运。而这也是为什么AEB系统能够在关键时刻挽救车主生命的原因。

Autopilot的问题

相信大多数的人都不会认为只要简单的踩油门、刹车完全靠AEB系统就可以避免事故的发生。但当我们开始使用特斯拉Autopilot这样更先进的自动驾驶系统时,许多驾驶者对会对系统和硬件产生极大的信任感。如果我们仔细阅读特斯拉的说明手册时,会发现特斯拉要求我们时刻将双手放在方向盘上,准备随时接管汽车的控制权。但实际上如果是这样,那为什么还要额外多花1万多美元感受与普通驾驶辅助系统相同的待遇呢?显然放松是一件很自然的事情,当我们没有对汽车进行控制的时候,很难集中注意力。特斯拉最初对驾驶者的要求非常宽松,显然这没有起到任何作用。当一位车主在佛罗里达州发生事故身亡之后,特斯拉加强对车主的要求。但依然还有司机在开启Autopilot的时候,忽略掉安全提示,放任Autopilot接管汽车的控制权。

公平的说,每次出现AEB或Autopilot系统拯救生命的新闻时,我们都不太会重视。但如果出现事故,就会给予更多的关注。

无法识别紧急车道停车


在2018年已经至少出现三次特斯拉撞上路边应急车道停靠车辆的新闻了,而每次车主都表示当时开启了Autopilot功能,其中两次是撞上了消防车,另外一次是撞上了警车。这三起事故都没到致命的程度,但说明当特斯拉的Autopilot功能在高速公路上工作的时候,往往这种最简单、最容易避让的事故却连续发生,这说明了什么?

比如一起事故中特斯拉撞上了路边停靠的消防车,特斯拉对事故中Autopilot是否起到了应有的作用始终保持沉默。但我们可以通过它的警示系统以及碰撞现场照片得到一些线索。首先,这些被撞的车辆都停在一些比较奇怪的地点。被追尾的消防车有一部分在并线车道、还有一部分在紧急车道上。而在碰撞之前这个特殊的地带混淆了Autopilot的视觉识别系统。同样,从另一起警车被撞的事故照片来看,地面上的马路颜色也并不一致。

其次,在某些情况下,车道上的标记对系统来说很难识别,而这也是撞上护栏的一个原因。特斯拉表示,只有在车道标志清晰可见的情况下才适合开启Autopilot功能。另外对Autopilot系统来说,静态的固定目标也是一个大难题。在道路两旁和上方有很多容易被忽略的标志,这比引起人类驾驶员的注意困难得多。

特斯拉的系统主要依赖雷达,而不像其它自动驾驶汽车使用了成本更高的激光雷达,这也就使得特斯拉更难以区分大型车辆和头顶的道路标志。

Uber撞行人的事故


当然,更糟糕的情况是撞人而不是撞车。一个月之前Uber自动驾驶测试车就撞死了一位骑车的行人,说明了自动驾驶技术研发公司还面临更多问题。

Uber自动驾驶系统的崩溃是由于一系列互相关联的决策逻辑而导致这起悲剧性的后果出现。在测试的时候,Uber关闭了沃尔沃测试车原有的安全系统,这样就不会对自己的自动驾驶系统进行干预。Uber的这种做法并不少见,但前提是测试的系统要比汽车配备的安全系统更可靠。Uber对此的回应是自己的系统能够提供与沃尔沃安全系统同样的保障。另外Uber虽然配备了安全驾驶员,但当时他正在做其他工作,分散了驾驶注意力。因此当前方突然出现推着自行车横穿马路的受害者时,不仅没有及时采取制动措施,安全驾驶员甚至没有来得及接管汽车的控制权就导致了悲剧的发生。

因此就算是自动驾驶汽车也无法保证行人在没有人行横道马路上横穿时的安全。而对自动驾驶汽车来说,同样应该考虑应对这种情况。

5级自动驾驶

出于这个原因,像Alphabet的Waymo或通用的Cruise,就完全放弃了部分自动驾驶技术,而开始直接研发能够真正商业化的5级自动驾驶技术,完全摆脱对人类的依赖。当然这是一个难度更大的目标。

目前来看,汽车行业不会乖乖的等着5级自动驾驶技术出现。目前世界上几乎每一家汽车公司都在努力为产品配备各种辅助功能来保持竞争力。总体来说,它们中的大多数都可能会挽救生命,但我们也必须要学会在5级自动驾驶汽车到来之前如何使用它们。(编译/音希)

随意打赏

google自动驾驶汽车人工智能技术的应用特斯拉自动驾驶汽车沃尔沃自动驾驶汽车自动驾驶汽车车祸汽车自动驾驶技术自动驾驶汽车视频人工智能产业发展自动驾驶汽车事故中国自动驾驶汽车
提交建议
微信扫一扫,分享给好友吧。