聚热点 juredian

小鹏撞死人,自动驾驶又论“视觉vs传感器”对错

8月10日,宁波一高架桥路段小鹏P7车主驾驶车辆与前方检查车辆故障人员发生碰撞,导致一人死亡!行驶记录仪显示车主当时开启LCC车道居中辅助驾驶功能。同日,百度旗下自动驾驶出行服务平台萝卜快跑的测试车辆,被后方车辆追尾,导致交通事故。二起与自动驾驶有关的事故同日发生,将小鹏汽车送上风口浪尖!

LCC是一项舒适性的辅助驾驶功能,包含60km/h以下的交通拥堵辅助和60km/h以上的智能巡航辅助,它适用于高速公路且具有清晰车道线的干燥道路工况,在城市街道上切勿使用。该功能可以防止因驾驶者注意力不集中或路面不平整而导致车辆偏离正常行驶轨道,还能主动提醒驾驶者,纠正车辆行驶轨迹,使车辆时刻保持在正确的车道上,提升行车安全性。LCC启用时,驾驶员需始终保持手握方向盘并在必要时接管方向盘。

小鹏撞死人让业界聚焦在两个方面:一是目前众多车企使用的L2级辅助驾驶系统,都可以根据前方的车辆速度进行自动跟车和减速刹车,但此次事件中当前方有障碍物时,为何车辆没能及时识别并做出相应的动作;二是根据车主表示,事故发生时自己“分神”了,在智能辅助驾驶系统功能愈发齐全、自动化程度越来越高的情况下,车企该如何让用户正确使用相关系统。

本次发生事故的小鹏P7便采用了毫米波雷达和视觉的融合感知方案,也是国内车企的主流技术路线。毫米波主要通过电波反射来进行障碍物的探测,但难以准确识别障碍物类型,诸如路牌、龙门架、护栏等静止物体都会被识别为障碍物,为了保证驾驶辅助系统的流畅性,算法上通常会忽略相对于路面不移动的雷达回波。而视觉需要依赖大量的样本量进行学习,对于异形物的识别效果较差,这次被撞车辆前站了一个人,视觉可能会出现识别问题。

“视觉VS传感器”流派在争什么

在技术和方案推进的过程中,自动驾驶一派认为应该走视觉与雷达的多传感器融合路线,另一派则认为纯视觉实现就足够了。派系之争的根源是当前EV主机厂对自动驾驶都有自己的理解,且都取得了一定的效果。自动驾驶核心要义是通过计算机与人工智能技术的融合,代替人类驾驶员,让车子自行完成完整、安全、有效的驾驶行为。这种智能化的驾乘体验将会成为新时代汽车一个重要的卖点,吸引全球科技巨头和车企纷纷投资布局。

自动驾驶就是机器模仿人开车时“眼观六路耳听八方”,来观察周边人车物体,做出安全驾驶的判断和行动。业界定义环境感知、精准定位、路径规划和线控执行一起并称自动驾驶四大核心技术。当汽车被置于社会应用场景下时安全可靠的感知是不可或缺的。

在环境感知上,纯视觉方案仅依靠摄像头搜集环境信息,然后将图片传输到AI芯片进行分析,做出判断决策。纯视觉+AI的方案比人眼的视角更广,通过大量的图片信息让汽车内部的计算系统拥有以车子为中心的“上帝视角”。纯视觉方案的优点主要是,实现成本相对更低,更接近人类驾驶,通过高分辨率、高帧率的成像技术获取的环境信息更加丰富;缺点主要是,摄像头捕捉环境信息容易受到环境光的干扰,且纯视觉方案对于图像的处理更依赖训练,难免出现环境认知的“死角”。目前,采用纯视觉方案实现自动驾驶的企业主要有特斯拉、百度和极氪等。

此外,视觉感知容易受到日照、明暗交替等环境因素干扰;毫米波雷达会穿透塑料、墙板和衣服等特定材料,无法对相应目标物进行识别。此外受制于成本,车载毫米波雷达一般仅涉及平面的角分辨率,垂直方向上则不做区分,因而也无法判断识别目标距离地面的高度。

“多传感器融合”方案则是通过摄像头、毫米波雷达、激光雷达等设备一起收集车辆的周边信息。激光雷达的加入能够获取更深度的空间信息,对于物体的位置、距离和大小感知更准确,且由于激光雷达是自发光并不受环境光影响。“多传感器融合”的有点是视觉和雷达传感器数据采集互补,缺点是成本高。目前,采用“多传感器融合”方案实现自动驾驶的企业主要有小鹏、蔚来、极狐等。

两大派系在技术实现上,都是基于硬件来帮助汽车构架自身周围的3D信息,然后让计算芯片提取关键信息来做出驾驶决定。未来,“纯视觉”要解决的是光致盲和认知错误等问题,“多传感器融合”本身的融合就是一大技术挑战,且算法本身还得优化,也需要更低成本的激光雷达产品。目前来看,两大技术路线都还有很多潜能值得挖掘。

自动驾驶的四个阶段

驾驶辅助系统(DAS)

目的是为驾驶者提供协助,包括提供重要或有益的驾驶相关信息,以及在形势开始变得危急的时候发出明确而简洁的警告。目前较为成熟的是自动泊车和“车道偏离警告”(LDW)等。

部分自动化系统

在驾驶者收到警告却未能及时采取相应行动时能够自动进行干预的系统,如“自动紧急制动”(AEB)系统和“应急车道辅助”(ELA)系统等。

高度自动化系统

能够在或长或短的时间段内代替驾驶者承担操控车辆的职责,但是仍需驾驶者对驾驶活动进行监控的系统。

完全自动化系统

可无人驾驶车辆、允许车内所有乘员从事其他活动且无需进行监控的系统。这种自动化水平允许乘从事计算机工作、休息和睡眠以及其他娱乐等活动。

中国自动驾驶进程

据小米公布的一段自动驾驶功能展示视频,小米自动驾驶测试车分别实现了在无保护场景自动掉头、事故车辆自动绕行、斑马线礼让行人、自动环岛绕行、自动下连续坡道以及自动泊车入位+机械臂自动充电等功能。小米也在积极推动自动驾驶部门与集团内其他部分的协同合作,包括人工智能实验室、小爱团队、手机相机部等。

2022年上半年,广州参与智能网联汽车道路里程和测试车辆数量,比较上年同期又大幅提升:有效测试里程增长73.5%,车辆首次发放路测牌增长41.6%,测试车辆交通事故认定记录为零。同期广州自动驾驶道路测试总里程已超过600万公里。

“百度地图X Apollo”在北京市高级别自动驾驶示范区发布2022全新版本,基于Apollo自动驾驶、车路协同技术的百度地图率先在亦庄上线城市车道级导航、车位级导航、绿灯畅行导航等智能化功能,在示范区范围内工作居住的人们用手机就能体验到更精准、高效的“自动驾驶级导航”。在亦庄200多个路口,市民在通过路口时,即便路口的红绿灯上没有变灯倒计时,手机上的地图导航也会提前几秒钟进行提示,从而帮助驾车人从容停车、起步。 此前已经在百度地图上线的红绿灯倒计时精准读秒功能已经累计服务亦庄用户超1000万次,每天提供超4万次服务,亦庄的路口通过时长相比于北京其他地区低36.8%,亦庄居民已经率先享受到了智能交通的建设成果。

自动驾驶近期展望

人类驾驶员操控车辆,是通过眼睛收集信息,大脑处理信息,并最终用手脚来实现操控的动作。激光雷达、毫米波雷达等感知元件,就像人的眼睛,是来获取外界信息的。但目前最大的问题是,软件和算法还无法达到人脑的水平,即便探测元件收集到了信息,算法不一定能够进行准确的识别,并指导相应元件进行控制。

自动驾驶是一个流程化、复杂的综合系统,涉及众多流程和领域。其在流程上包括感知层、认知层、决策规划层、控制层和执行层几个层面。而识别的准确度是上述几个流程共同作用的结果,其一方面依赖于硬件设备的检测精准度,比如,在摄像头和毫米波雷达的视觉融合方案中,摄像头和雷达都在执行检测,但对于同样的物体,不同的硬件设别检测的精准度不同,这就需要对硬件进行视觉技术训练。

近两年来,得益于软、硬件的提升,自动驾驶相关技术得到了长足的进步,例如小鹏的NGP、蔚来的NAD等系统,虽然被宣传为智能驾驶,但其实现的功能已经够得上L3级自动驾驶的水平。

在5年内,矿区和飞机场等相对封闭的场景会率先落地L4自动驾驶;但L5级自动驾驶,即全无人的自动驾驶,或许仍需要等待较长的时日。

相关方案推荐

来源:我爱方案网 链接:https://www.52solution.com/

搜索建议:
热博

 坐飞机时耳朵疼怎么解决

平常大家在乘坐飞机时,有没有出现不适的情况,尤其是在飞机起飞、降落的时候,耳朵会出现疼痛、耳闷、耳胀等不适症状,这种感觉很不好受,如何才能缓解这些不适症状呢?耳...(展开)