特斯拉致命事故后,该如何确保无人驾驶安全

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

特斯拉致命事故后,该如何确保无人驾驶安全

欢迎关注“创事记”的微信订阅号:sinachuangshiji

文/maomaobear

上周五我曾写过一篇文章,分析了特斯拉无人驾驶发生致命事故的原因以及无人驾驶未来的可靠性。

在那篇文章中我曾提到,官方对于事故发生的解释是“在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。由于拖挂车正在横穿公路,且车身较高,这一特殊情况导致Model S从挂车底部通过时,其前挡风玻璃与挂车底部发生撞击。”

按照这个信息,有人做了分析,认为问题出在Mobileye EyeQ3对图像信息的判断与远距离毫米波雷达的识别上面。所以这篇文章我们就探讨一下特斯拉的传感器是否真的有问题,以及如何做到安全的无人驾驶。

一、特斯拉的传感器犯错了吗

特斯拉致命事故后,该如何确保无人驾驶安全


根据特斯拉官网给出的自动驾驶组件图,我们可以看出特斯拉为自动驾驶配备了三种组件,分别是位于前后保险杠附近的超声波传感器(1)、位于后视镜下方的前视摄像头(2)、安装在前格栅中部的雷达(3)。

如果特斯拉对事故发生原因的解释是事实,那说明说明这三种传感器在配合使用的过程中还存在漏洞。

超声波传感器本来就是近距离探测,没什么可说,主要问题在于摄像头和雷达。

首先,摄像头方面,特斯拉用的是Mobileye第三代技术。

这种技术采用了一枚长焦摄像头。因为安装在后视镜下方,位置较高,所以按常理来说摄像头能捕捉到拖挂车。但长焦虽然焦距更长,但问题在于视角过小,当白色拖挂卡车进入视觉区域内的时候,长焦摄像头只能看到悬浮在地面上的卡车中部,而无法看见整个车辆,在技术上来说,漂浮物体检测对于机器视觉来说是一个比较困难的识别。

同时大面积的纯白色没有纹理,摄像头很难找到特征点,Mobileye以单目摄像头进行障碍物检测的技术虽牛,但对于大面积白色物体的障碍物检测很难处理,问题在于相机姿态求解没有足够的数据输入,导致漏检率非常高。

目前比较好的解决方案是Mobileye第四代技术,这种技术已经可以支持多个摄像头,广角摄像头的信息。如果有多个摄像头共同采集,或者广角摄像头能够捕捉大卡车的全貌,这些低级的判断失误都不会发生。

其次,是雷达的问题。

特斯拉只用了一个77G的毫米波雷达,这个雷达安装的位置又比较低(前格栅中部),对高处物体发生漏判很正常。比较靠谱的标配应该是五个毫米波雷达(一个77G长距离雷达,加上4个短距离雷达)。多个雷达共同检测,误判的概率就会少很多。

其实就无人驾驶的发展阶段来看,依靠毫米波雷达与摄像头实现全自动无人驾驶是很难的。因为毫米波雷达的准确性不够,而依靠摄像头对人工智能算法和计算能力要求太高。

目前机器视觉对图像的识别率还不能做到完全无误,谷歌的图像识别就曾将黑人标注为大猩猩而引起争议,至于特斯拉所需要的动态图像识别更是需要超算级别的计算能力,远不是汽车系统能承受的。所以特斯拉走的路线其实到不了完全无人驾驶的阶段。

真正靠谱是激光雷达方案,相比毫米波雷达,激光雷达精度更高,可在300m距离上分辨相距3cm的两个目标。同时还可以获得极高的角度、距离和速度分辨率。

激光雷达也不会像微波雷达那样易受自然界广泛存在的电磁波影响,有很强的抗干扰能力。其缺点是是恶劣天气会有一定影响,成本也比较昂贵。

如果,特斯拉能带一个激光雷达,或者退而求其次多带几个毫米波雷达,误判可能就不会发生。

综上来说,传感器技术本身是可以帮助特斯拉避免此次事故,但特斯拉出于成本考虑,摄像头用得太少,雷达用的太少而且没有用激光雷达,才出现了这种误判。

二、安全的无人驾驶需要什么?

对于无人驾驶来说,靠谱的传感器只是一部分,真正要实现安全的,可以替代人类的无人驾驶,要做的其实还有很多。

在单个传感器方面,我们刚才已经说过不少,但要真正使其发挥作用还需要多种传感器共同作用,互为备份。

譬如摄像头,前置摄像头至少要有两个形成立体视觉才能准确的判断物体和距离。而车是四个方向的,后置同样应该有两个才能准确判断后车,左右还有需要各一个才能形成360度视觉,这就至少需要8个摄像头。

激光雷达具有360度扫描能力,有一个就够了。

超声波传感器是辅助,车身周围有几个就够了。

这种多种传感器互为备份是无人驾驶安全的第一步。

此外,要处理多路传感器提供的信息,还需要强大的计算能力。

Mobileye的EyeQ4芯片采用了四个CPU处理器内核,每个内核又拥有四个硬件线程,两个多线程处理集群(MPC)内核,两个可编程宏阵列(PMA)内核。所有内核都是完全可编程的,并支持不同类型的算法。EyeQ4芯片需要满足每秒超过2.5万亿次浮点运算的超高强度要求,还要符合车用系统芯片3瓦左右的低能量消耗标准。能以每秒36帧的速度,同时处理8个摄像头的影像信息。

而nVIDIA的“NVIDIA drive px 2”有两颗Pascal架构GPU,共12核心、相当于150台Macbook Pro的8T Flops运算能力,号称车上的超级计算机。不过它的功耗达到了250W,要用水冷,这对汽车来说是不算小的负担。

有计算能力,还得有算法,这一块原本是难点,靠人穷举无数种现实情况编程处理太难。而近年来深度学习与神经网络的发展,让无人驾驶的算法有大的突破。

人类可以通过大量的实际道路情况训练计算机,让计算机自己学习驾驶,应对各种意外。所以谷歌无人汽车才到处跑,百度才和芜湖政府签订协议专门划出一块区域让百度试车。

需要说明的是,不同的传感器解决方案算法是不能互相使用的,特斯拉基于摄像头的深度学习出来的算法无法给激光雷达用。这也是为什么说谷歌比特斯拉距离无人驾驶更近的原因。

最后,还要有各种辅助大数据。无人驾驶的计算资源有限,不能什么东西都靠实时计算。所以,精确到厘米高精度3D地图,路况,交通标识等信息数据就很重要。实时路况,各种信息可以帮助无人驾驶系统把更多的计算资源放到实时路况的处理,保证安全。

此外,还需要相应的政策法规,譬如特斯拉无人驾驶这个事情原本是要求人手不能离开方向盘,随时警惕,特斯拉知道自己的东西几斤几两。而驾驶员偏偏在看哈利波特……。这就需要有法律法规规定,无人驾驶在什么情况下可以离开人,什么情况下不行?什么道路上可以开,什么道路上不行。(譬如危险路段,事故多发路段),什么气候可以,什么气候不行。无人驾驶系统也应该有子系统的失灵警告提升人类,让人类及时掌控控制权。还应该有安全系统,在安全得不到保证的路况时要自动安全停车……

从目前的技术看,无人驾驶距离安全使用还有几年的时间,等到技术成熟以后,也要有一个政策法规的磨合。

特斯拉的问题是操之过急,在技术还没有足够可靠的时候就给了用户太多的自由。

无人驾驶未来一定是安全的,但是我们还要做很多。

特斯拉致命事故后,该如何确保无人驾驶安全


(声明:本文仅代表作者观点,不代表新浪网立场。)

随意打赏

特斯拉自动驾驶事故特斯拉无人驾驶汽车无人驾驶的特斯拉特斯拉 无人驾驶特斯拉汽车事故特斯拉驾驶体验特斯拉无人驾驶特斯拉自动驾驶特斯拉 驾驶奥迪无人驾驶
提交建议
微信扫一扫,分享给好友吧。