特斯拉的致命BUG?Model3再现惊魂一撞,AP高速直撞侧
出品:电动星球News
作者:蟹老板本人
今天上午,三则视频穿越海峡,以极快速度传遍了大陆社交网络和车主社群。
视频说的是同一件事:一辆Model3在高速公路行驶时,一头撞上了侧翻在地的一辆白色货柜车。Model3车头甚至插入了货柜中。
这一事件迅速让人联想起特斯拉2016、2019的两宗Autopilot致命车祸同样是白色货车,同样是无法识别,同样仿佛不带减速的一头撞上。
人们问:Model3的Autopilot方案是不是依然存在着致命的BUG?我们又怎么正确认识Autopiolt。仅仅去指责用户的滥用?
我们采访了三位自动驾驶领域内的资深工程师,有知名大厂的总监,也有自动驾驶公司的硬件负责人,得到了一些有趣的回答,譬如,
这是工程问题还是商业问题?
特斯拉在高精地图、惯性传感器、精准定位上的投入不足?
在漏报和误报之间,宁愿漏报不愿误报是对还是错?
站在路边挥手的货车司机,能不能成为一个警示标识?
以下,Enjoy!
Model3再现AP惊魂一撞
从视频来看,这惊魂一撞发生在今天早晨六点多,于台湾嘉义的高速公路上。仅仅三四个小时后,现场视频就穿越海峡,传遍了大陆社交网络、车主社群。
从画面来看,一辆白色Model3一头撞上了一辆侧翻在地的白色货柜车。高处的监控视频还显示,Model3在临近货柜车之前曾有制动动作,但不知为何依然以很高速度撞上了侧翻车辆,甚至让货柜车向后挪动了几米。
此外,货柜车司机事发前已经站在了前方,摇手示意过往车辆注意,但好似没有起到警示作用。
根据当地媒体报道,这起事故并没有人员伤亡。Model3车头有所毁坏,但好在货柜车装的是早餐食材,因此Model3虽然撞破了货车车顶,但被奶油沙拉所缓冲,事故并没有想像中惨烈。
报道还称称当地警方进行了酒精测试,酒测值是0。00mgl。司机黄某称当时车辆开启了Autopilot辅助驾驶系统,时速约110公里每小时,发现前方有车时刹了车但为时已晚。
视频的广泛传播,说明了特斯拉的热度。
网上评论大多认为车辆当时处于Autopiolt状态,感觉(司机)在玩手机没看路。、这一定睡了,因为这侦测到大货车司机时有刹了一下,之后刹车放了继续撞,不过好险有前面刹那一下,不然应该更惨。
当然,也有特吹言论:对特斯拉AP来说,那不是一台卡车,因为卡车不长那样子,它可能已经融入了远方的天际。从另一个角度来看,这车不会白白牺牲,每次意外的累积就是特斯拉的进步方式。
是概率问题就一定有概率发生
上面那段话我们其实挺熟悉,两岸一家亲果然没错。当然,也会有反讽。譬如自动避让高潮尬吹,一头撞上集体沉默之类的。
只是,每次意外的累积到底是不是特斯拉的进步方式?从这宗事故来看,起码值得商榷。
很多人都会将今天发生的事故与2016、2019年两宗特斯拉Autopilot致命车祸联想在一起。
2016年5月,佛罗里达州一位名叫JoshuaBrown的40岁男子开着ModelS,在Autopilot状态下撞到了一辆正在过马路中的白色拖挂卡车,ModelS直接切头,驾驶员死亡。这是特斯拉Autopilot的第一起致死事故。
三年之后的2019年3月,同样在佛罗里达,一辆Model3以110公里时速侧面撞击了一辆正在穿过马路的白色拖挂卡车。Model3同样处于自动驾驶模式,司机以及Autopilot系统未做任何回避动作,车辆同样被切头,50岁男性司机当场死亡。
这两宗事故当时都引起轩然大波,甚至引发了特斯拉与Mobileye的决裂(原因之一),特斯拉此后也修改了关于Autopilot的表述,不再强调自动驾驶。
从Autopilot的应用来看,我们认可特斯拉官方的解释AP的出现,事实上减少了道路上的交通事故。但我们并不认为,特斯拉已经解决了白色货柜车的BUG问题。
广州自动驾驶公司文远知行在去年曾经发表过一篇文章,认为特斯拉在过去几年进行了1次重大传感器方案升级,3次计算平台升级以及数次重大软件版本升级,但还是无法解决这一已知致死(足够严重)的Bug。(未包括FSD的升级)
从传感器角度来看,他们认为特斯拉的传感器配置只有前向广角近距离摄像头可以有效看到正在横过马路的白色拖挂卡车,但基于单目摄像头获取深度也受到拖挂车白色涂装影响无法有效提取特征点,从而无法进行有效的深度恢复(StructurefromMotion,SFM)。
换句话说,它虽然能看到但无法辨别出广告牌、天际线还是横过马路的白色货柜车。加上广角摄像头只能看到约50m处的车辆,在高时速下(30米s)下,留给系统的反应时间只有短短2秒,远远满足不了刹车所需的时间与距离。
而今天发生在台湾的类似事故,用资深自动驾驶工程师黄觉(化名)的话来说,只要存在概率问题就一会有概率事故发生,或早或晚。特斯拉目前并没有解决这个长尾问题。
高精地图、精准定位的缺失?
特斯拉没有解决,是解决不了,还是还没解决?其他车厂又是否有能力解决?
某大厂资深工程师刘新光(化名)说,目前全球量产车其实都会遇到这个坑。另一家大厂的自动驾驶总监张卫(化名)也说,CameraRadar这时候是不好使的,静止异型车都是坑。
不过,黄觉觉得奥迪装在A6、A7等车型上的L3级自动驾驶系统能够稳定检测出这个场景,因为奥迪的系统使用了激光雷达,但代价很大,光激光雷达硬件成本大概300、400美金,还不包括软件开放的成本。
从传感器能看到的角度,视觉传感器对大面积白色物体非常不敏感。
毫米波雷达则很难对静态物体进行检测,所有静态物体,譬如大桥接缝、路上钉子、可乐管、非常缓慢移动的物体等,对Radar而言都很容易形成噪点,否则没法开。
激光雷达由于检测回波能量、白色面发射率高,因而对大面积白色物体容易识别。
当然,不是说摄像头、毫米波雷达不能做到,但相对于激光雷达而且的确是比较难。尤其是如何在快速移动中做到高可信度。
黄觉说,从技术角度看要精准识别路上的障碍物有两种方式。
一种是单机识别,譬如通过激光雷达的3D信息,发现前方斜率出现变化,认为有障碍物于是采取了动作。但这个比较笨,而且需要算法的特别训练;
另一种则是基于高清地图(譬如Mobiley的REM),甚至雷达特征地图(博世目前在推进)进行比对。我看过这个地图,但之前道路上没有这个物体。于是采取了行动。
一个比较内部的信息是,特斯拉内部对高精地图的重视不够。黄觉告诉我们,特斯拉的IMU惯性传感器是不足的,这会导致行驶时很难做到非常精准的车道级定位。
工程问题还是商业问题
必须要说明,黄觉毫无疑问是激光雷达派。而众所周知,特斯拉是视觉路线,认为人眼能解决的问题,摄像头同样也能解决。
而在刘新光看来,虽然侧翻的白色货柜车或者异型静态车辆对于任何厂家而言都是坑,但视觉路线是能解决这个CornerCase(极端情况或者小概率事件)的,前提是算法能识别。
刘新光认为关键问题是数据训练,现在的特斯拉明显没有对这样的特殊场景进行过数据训练,进而无法识别出有一个大货车横在那里。
就好像毫米波能识别出前方有个东西,但不确定是什么,然后去问摄像头大哥:这是什么?结果摄像头说,我也没看过呀。
他认为只要有技术方案,特斯拉肯定可以通过OTA解决这个问题。目前看没有解决,只是说明这一问题的优先级没有在前面。特斯拉完全能通过数据闭环,对这样一个Cornercase做出应对。
但是,为什么特斯拉没有这样做?
刘新光说这可能不是个工程问题,而是一个商业问题。
他告诉我们,这种极端情况即使特斯拉有那么车在路上跑,但依然是小概率的。它必须购买、采集更多的数据,然后在台架上跑、在算法上跑,此后再搭建场地做适应性训练。
这个代价有多高?你想想,时间、设备,搭建场地,投入的研发力量,就为了解决这0。005的极端情况。
而相较于这样昂贵的工程解决方法,车厂其实还有零成本的方法,那就是交付时反复强调不是全自动驾驶。
至于现在大家对这宗事故关注度这么高,一个原因是这个就叫做过分宣传带来的反噬。
的确如此?
车主滥用?
就L2系统而言,台湾事故,包括2016年、2019年的致死事故,都可以说车主滥用了Autopiolt系统。
但黄觉有异议。
他认为目前厂家在L2系统中太过于考虑用户体验。虽然逻辑上没错,但在实际操作中,会让人在最困难的地方,做最艰难的决定。
譬如台湾事故,车主在发现后已经刹不住了。舒适性做好了,但留给用户的选择空间也不多。
黄觉说为了用户体验、为了舒适,不急着刹车,将问题往后推,一旦超过了系统判定能力,留给司机的决策时间就会很短。场景越复杂,越是剥夺了司机提早做决策的权限。
目前的自动驾驶研发已经脱离了安全、不安全的二元思考,大家都在跟概率做斗争。黄觉说,在L4级的自动驾驶研发中,他们要求的是不能漏报,这与L2的策略完全不同。
最后说一下挥手。
在台湾事故中,能很清楚看到侧翻货车的司机在前方挥手。刘新光说,高速公路原本就不应该有人,因此在NOA等类似功能设计时,可以将路人挥手这样的场景纳入决策依据。
一旦传感器捕捉到,就可以判定前方出现了紧急状况,即使不采取行动,也应该警示驾驶者注意。而他们一定会把这样的场景写入算法中。
自动驾驶,本质上是数据驱动。更多的数据,覆盖更多的极端情况,优化出更好的算法。