本文来自微信公众号:爱思考的柚子(ID:icetea375m),题图来自:视觉中国
小鹏汽车日前发生一起事故。视频可能有人没看,大致情形是一辆车停在高架的内车道,驾驶员下车摆弄三脚架,后车小鹏高速撞上来,没看到刹车迹象。据说速度80km/h,开了辅助驾驶。
类似事情发生了很多起。2021年蔚来撞上了高速上停在路边的养护车,死了一个车主。特斯拉撞上了停着的卡车,车主和乘客也死亡了。
美国国家公路交通安全管理局(NHTSA)今年6月曾发布数据称,在2021年7月至今年5月15日期间,12家汽车公司向其报告了367起涉及辅助驾驶系统的撞车事故。
为啥现在L2的辅助驾驶对于静止物体无法识别,导致致命的撞车事故?
首先,我们要找到罪魁祸首,再去分析问题。
各家辅助的技术路线不一样,特斯拉是三目,小鹏等是双目/三目+毫米波雷达。但毫米波雷达是不用来识别静态物体的,这项工作的职责是摄像头。
摄像头的问题有2类:
1. 摄像头拍到了物体,但在高速时无法快速计算出碰撞的距离和时间。这次小鹏的事故估计是这类。
小鹏的感应设备多,单个设备信息量大,所以大量信息是在感应设备进行第一道处理,将处理后的数据传到中央处理器来处理,形成决策,最后执行。
这个流程会产生两个问题一是流程过长,导致响应太慢。二是中央处理器的算力小,且花费大量处理多种信号的融合,难以调出算力来应对突发情况,导致反应慢。
简单来说,高速行驶时,算力不足,无法处理大量的信息。低速状态下算力充足,则表现良好。如小鹏在停车时,虽然也有很多静止物体,表现却很好。
算力的问题,虽然Nivida推出了Orin,多个堆积可以达到1000算力,比现在提升了10倍。但实际可用算力会打很多折扣,算力不足的问题并不能解决。折扣的原因有很多,如编译器的效率(将软件指令转化为硬件指令的效率)、算法代码的效率(多种算法,导致代码过多,软件执行效率低)。
2. 摄像头无法识别物体,如距离、类型等。之前蔚来撞上养护车估计是这类。
具体原因也有两种:
一是这类车辆比较特殊,没有被标签过,所以算法识别不了。由于识别不了,碰到不明物体,算法无法下决策就会导致没有下达刹车的执行指令,就会撞上去。当时Uber撞上推车的行人就是这类。
这类错误发生的概率可能现在并不高,因为可以加入优先级最高的防撞系统,强制刹车,降低撞击的速度。但不可能避免撞击,因为这类系统的准确度要极高,不然平时老介入就会产生开两步刹一下的情况(幽灵刹车)。这车就没法开了。
另一种是这些车辆都会发出特殊的光线,干扰了摄像头的测量距离。但这是有办法的解决的。
懂摄影的朋友知道,一张照片过曝/过暗时,是很难看清内容的。但经过调整色阶、亮度和对比度来还原。智能手机这几年在夜景拍摄的进步,大家都有感觉。同理在智能驾驶,这也是算法优化的工作。
但算法需要优化的地方太多了。从优先级看,这类属于长尾的小概率事件,可能不如识别市区各种交通指示,在无灯时左拐等常用场景的优先级高。
事实上,靠人力和车辆从现实中收集是无法穷尽这些小概率的事件的,只有依靠算法模拟各种变态场景,然后上车做影子测试,与实际司机驾驶情况对比,反反复复才有可能降低此类事故发生的概率。
简单说,小概率事件需要耗费大量时间来解决。
总结一下:现有硬件和算法的水平,辅助驾驶只是个“菜鸟司机”,我们还得把手放在方向盘上。
本文来自微信公众号:爱思考的柚子(ID:icetea375m),题图来自:视觉中国