特斯拉公布“黑匣子”数据后,更大的矛盾与争议或刚开始

虎嗅网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

本文来自微信公众号: 经济观察报(ID:eeo-com-cn) ,作者:刘晓林,原文标题:《多位工程师解读:特斯拉公布“黑匣子”数据后 更大的矛盾与争议或刚开始》,题图来自:视觉中国


“原始数据的放开,是定位、分析、重现 (撞车) 原因的唯一途径,如果不放开,是完全没有这个 (寻找撞车原因的) 途径的。”4月22日,在特斯拉提交河南事故车辆行车数据的当日,国内某高端智能电动车自动驾驶项目负责人何工在接受经济观察网记者采访时作出如上表示。她认为,从自动驾驶软件的基本逻辑来看,通过数据分析来判断出事故原因是软件问题还是人为操作问题的可能性是很大的。


但何工同时强调,数据分析难度的难度在于做数据分析的人首先要知道 (特斯拉) 这些数据的内部逻辑。另一位接受采访的某车企技术项目主管工程师张江也表示,主动权仍掌握在特斯拉手中,如果算法或者是核心的逻辑不告知,第三方检测机构仍难得出具体结论。


 4月22日,随着特斯拉方面向监管部门提交撞车事故前30分钟的行车数据记录,经过近5天的发酵后,特斯拉车展维权事件正在回归到争议的核心——事故原因的探究上。从这一点来说,车顶维权确实是有利的“助攻”。借助于监管部门和行政力量的介入,该事件正在朝着解决事件核心矛盾的方向发展。


从4月20日到4月22日,郑州市郑东新区市场监督管理局三次释放对特斯拉事故投诉双方的调节结果,从最初车主要求“提供车辆发生事故前半小时完整行车数据”但不同意第三方进行技术鉴定,而特斯拉出于信息安全拒绝提供数据开始;到该市场监管局责令特斯拉汽车销售服务 (郑州) 有限公司无条件向张女士 (河南维权女车主) 提供该车发生事故前半小时完整行车数据;再到特斯拉郑州体验中心中原福塔店最终于4月22日下午提交了行车数据,并对外公布了事发前1分钟的数据。可以看出,在车主围绕着“刹车失灵”进行的维权过程中,车主与特斯拉双方的争议在于数据的开放以及是否做第三方鉴定检测上,而始终难以达成统一意见的背后,也显示了对数据主动权的争夺激烈性。


客观而言,与此前多起特斯拉事故争议不了了之不同,这一次,特斯拉首次在国内进行数据放开,不仅推动争议朝着探寻事件真相的实质性角度发展,在整个自动驾驶技术的发展阶段中,也具有里程碑意义。但与此同时,当争议重新聚焦到技术和事故本身时,更大的矛盾或许才刚刚开始。事实证明,特斯拉公布事故前1分钟行车数据后,车主方关于侵犯其隐私的观点以及业界对特斯拉数据真实性的质疑也已经随之出现。


事实上,从自动驾驶功能在量产车上应用以来,事故责任如何认定就已经成为最大争议点。与燃油车车主可以借助工具通过车辆OBD接口读取到行车电脑的数据不同,具有自动驾驶功能的车辆的行车数据如同飞机的“黑匣子”,属于保密信息,并非车主自身所能获取。


更重要的是,软件决定汽车时代, 数据是找到事故真相的关键,但数据能否“说实话”,以及数据对场景的覆盖和还原真实度同样存在争议


从4月22日至今,经济观察网记者采访了多位国内自动驾驶领域的项目主管工程师,针对具有自动驾驶功能的车辆的事故责任认定,分别从行车数据取证、数据对场景的可复现性,以及事故责任认定的数据推理逻辑等多个侧面进行了分析。从客观公正以及保护采访对象的角度出发,本文将完整呈现被采访对象的观点,不做点评。


一、若不了解算法逻辑 ,第三方检测也难重现事故场景


(受访者:某车企技术项目主管工程师张江)


经济观察网:双方之前一直纠结于行车数据的开放,这个数据的开放很难吗?


张江: 是的,就像飞机的“黑盒子”一样,这个核心数据也就是完整数据是需要内部的密码或特殊权限才能访问的,用户自己无法下载。至于刹车的问题,这就看它控制器是怎么设置的,比如说碰撞信号,在发生事故之前多少毫秒以及在事故后多少毫秒的记录它都应该有,加速等信号也应该是有储存的,但控制器里面的信号,没有权限是访问不了的,读不出来的。


所以这种事情,一旦你没有视频或者别的信号做监控的话,太难重现和还原 (现场) 了。让消费者自己找证据太难了,厂家怎么可能随便让你拷数据?出了事故就去拷数据取证,对主机厂是不利的。即使第三方机构检测,如果主机厂不把内部代码开放给你也是很难检测的。


现在国家正在推行法规,就是针对气囊控制器推出EDR法规 (Event Data Recorder汽车事故数据记录器,俗称汽车‘黑匣子’或‘碰撞记录器’,是集成在安全气囊控制单元内的一个软件模块,用于记录车辆碰撞前、碰撞时、碰撞后三个阶段中对应时间序列的车辆动力学数据以及汽车单元内不同控制模块的数据) ,规范紧急制动数据的记录。因为以前发生各种碰撞事故之后,你调取数据的时候,主机厂是不给你提供的,因为法规没有要求,所以厂家不会让你把核心数据调出来。


经济观察网:特斯拉这种情况,委托第三方检测机构进行检测的话,得出结果的可能性大吗?


张江: 第三方很多东西是不好检测的,因为现在硬件可能本身是没问题的,而软件的问题,如果算法或者是核心的逻辑他 (特斯拉) 不告诉你,你咋检测?智能汽车的软件设计并不都是一个算法逻辑。即使告知逻辑,但是深度开发的东西也会有所筛选地告知,所以说主动权还是掌握在他们 (车企) 手里。


经济观察网:有车主举例称其他品牌的“刹车门”事件花了8个月才找出来问题所在,所以担心特斯拉也会存在这种问题,非常难找到问题所在。


张江: 这种 (特斯拉) 事件与之前其他品牌出现过的刹车事件还不同,之前是一种机械式的,所以可以另找一辆同样的车去做测试,再现当时的场景。但特斯拉这是软件控制的,你很难再现当时场景的。因为它掺杂了自动驾驶,它有时候是程序在起作用,所以你要界定什么时候是机器在起作用,什么时候是人起作用。但这很难界定。


所以现在对这种智能汽车的碰撞事故,是没有办法通过以前的那种检测方法来判定原因的,因为都涉及到软件的问题。而且每一家 (车企) 的算法应该都是不一样的。


经济观察网:随着自动驾驶功能的普及,事故责任的认定是不是正在成为一个很难解决的伴生难题?


张江: 我理解,自动驾驶的算法永远无法实现100%的场景覆盖。因为实际场景的复杂程度远远超出它录进去的那些,即使将来通过AI学习也很难满足全部覆盖。现在在法规的碰撞测试中,无论哪种碰撞开发的工程实验,设定的也就是几十种路况和场景,而现实场景永远是最复杂的,有成百上千种可能,而且机器和人的判断还是不一样的。所以相关法规需要及时跟上,现在这一块还是空白的。


二、数据能回答是否存在“刹车失灵”


(受访者:国内某高端智能电动车自动驾驶项目负责人何工)


经济观察网:在目前的情况下,数据开放是举证并弄清撞车事故真相的唯一途径吗?


何工: 原始数据放开是定位、分析、重现这个 (撞车) 原因的唯一的途径,如果不放开,是完全没有这个 (寻找撞车原因的) 途径的。因为解决问题的前提是要定位问题,定位问题的前提是要能够复现问题 (还原现场) ,所以现在拿到这个原始数据,首先是为了要把它复现出来,就是把那个场景重现出来,我们只能根据这个模拟的信号,就当时是一个什么样的情况,自动驾驶给了个什么信号或者人为操作给了个什么信号,最终导致了这样一个结果。就是所有的原始数据是来帮助做这部分工作的,把它复现出来,然后假如能复现了,再根据复现的这个逻辑,就能定位这个问题。


也就是说,数据打开了,有可能还是不能完全100%地推断出一个结果,但是如果不给到这个数据,那就是完全没有办法 (进行推断) 。所以,对于复现问题、定位问题,和最终解决问题来说,数据放开是唯一的途径。没有数据的话,没法分析,结论也就出不来,也就无法举证。


但是数据放开之后,究竟能不能判定是人为原因,还是自动驾驶软件的误操作或者这个软件的原因,这也不能说死。因为从特斯拉前几次的失控案例中来看,其实最后的结论也是加了一部分推断的,但是这个推断结合车主的描述,是可行的。也就是说,它其实是有一部分主观判断在里面,只不过这个判断正好跟这个车主的证词吻合,所以采用了车主的证词,也不是完全100%依照车的这个信号来做结论的。


经济观察网:车主认为是软件导致刹车失灵,如果存在这种情况,对行车数据分析可以证实这一点吗?


何工: 如果存在“刹车失灵”的问题,数据里可以呈现刹车在什么情况下失灵,比如是否是ibooster (汽车线控制动系统,传感器感知驾驶者踩下制动踏板的力度和速度,并将信号处理之后传给电控单元出现问题) 出现问题。找到这个对应的情况。就可以通过软件上信号模拟的方式来进行检测了。


汽车的外届输入信号分两种:1、人为操控,比如制动踏板开度、方向盘转动角度;2、传感器信号输入。这两种输入,都可以从数据中分析出来,从而模拟给出输出,得到是否刹车失灵的结论。


经济观察网:也就是说,通过数据分析,能清楚地得出事故是软件问题还是人为操作问题的结论?


何工: 自动驾驶的某个模式一旦生效,在不接受人为操作的时候,是会有功能标志位的,数据能分析出来;再一个,在自动驾驶模式下,各种操作都是有标定的,有预期的速度及其他行为,这些结合起来分析,也基本能判断是软件问题还是人为操作问题。


更仔细地解释一下就是,现在这种车有两种控制方式,一种是自动驾驶生效,也就是说自动驾驶 (系统) 开始操控这个方向盘、操控油门、操控踏板,就不接受人为信号输入了;还有一种方式就是人为操控,纯接受人为信号的一个输入,自己去踩 (踏板) 、自己去搬方向盘。


当自动驾驶生效的时候,它会有一个模式标志位,这个标志位比如说如果触发唯一 (模式) 了,那这个时候驾驶者就可能就出现那种踩也踩不动,方向盘转不动的感觉,因为它 (车辆) 不接受你的人为输入,它有另外一种扭矩的输入,所以说这个时候人会觉得很吃力,比如说有转方向盘转不动啊,刹车踩不动等等情况。


就算这种标志位分析的理论,觉得还不够支撑的话,那还有一种逻辑判断。因为自动驾驶每一个动作生效的话,比如它每一个转角啊,速度啊,都是有它的标定的,什么场景下以多少角度、以多少速度、多少加速度,这种都是标定死了的。而人为操控是做不到这么准确的,比如说转角,标定是30度,但人打 (方向盘) 的话,有可能40度就过去了,就是这种区别,数据也是能分析出来的。


经济观察网: 特斯拉已经在4月21日向主管部门递交了撞车事故发生前30分钟的数据,并公布了事发前1分钟的行车数据,请问您觉得接下来的数据分析有什么难度吗?


何工: 数据分析的难度是:做数据分析的人首先要知道 (特斯拉) 这些数据的内部逻辑,比如说哪个标志位的触发,然后针对这个标志位一旦触发了,它的各个型号的这个逻辑关系是什么?这些需要去梳理清楚。目前不太清楚国内有哪些机构有能力做这些分析。


经济观察网: 特斯拉提到车主有超速,这会不会导致触发自动驾驶唯一模式?


何工: 超速不会触发自动驾驶,至少现在在我知道的自动驾驶这几大应用领域里,超速不属于触发自动驾驶接管的这么一个范畴。


经济观察网: 此前多起特斯拉交通事故案例都在驾驶员是否“误操作”上存在争议,请问在自动驾驶模式触发后,驾驶员有什么方式可以结束这种状态吗?


何工: 人为控制的优先级是高于自动驾驶系统的,他 (驾驶员) 是有办法来监控电脑的,而且目前在中国,自动驾驶只是一个辅助驾驶的模式,也就是说,人在任何时候介入、接管车辆的控制,自动驾驶都要让步于人为的操控。


三、还原完整场景仍是挑战


(受访者:自动驾驶项目工程师孙丰)


经济观察网: 要从行车数据中分析出事发时车辆的具体操控状况,目前来说,是不是需要非常顶级的专业高手?


孙丰: 首先要对车辆动态分析和车辆系统要有比较深入的了解,这些数据相当于飞机“黑匣子”,但是和飞机不同的是,有些车辆可能只能记录了自己的车辆信息,但是对于环境和其他交通参与者的信息未必记录了,这样对于还原当时的场景会有一些困难。


经济观察网: 搭载自动驾驶功能的车辆是近几年才开始大量出现,目前做这种事故的第三方鉴定很鲜见也有争议,您怎么看?


孙丰: 第三方 (进行鉴定) 有意义,但是要看是什么第三方,应该有一些国家机关具有这种技术实力。


(出于对采访对象的保护,文中所涉皆为化名。)


本文来自微信公众号: 经济观察报(ID:eeo-com-cn) ,作者:刘晓林

随意打赏

提交建议
微信扫一扫,分享给好友吧。