辅助驾驶“不可靠”场景下,随时做好系统撂挑子的心理准备

(视频建议WIFI网络收看)

在辅助驾驶事故中,有个经典案例-特斯拉台湾嘉义事故,一辆翻倒在地的白色大货车静止侧躺着高速路上,被经过此地开启AP的特斯拉笔直撞上,原因主要在于事故场景中“白色”和“静止”两个关键特征忽悠了特斯拉感知系统中的摄像头和毫米波雷达。
这也不是特斯拉AP第一次杠上白色货车,此前在北美加州、佛罗里达等多起特斯拉AP事故均与道路中间的大货车有关,可见这也不算太属于是某种长尾场景(极端特殊场景),就是由于感知系统首先瘸了腿,导致了此时辅助驾驶处于相对“弱势”的状态,我们可以把这种场景称之为辅助驾驶的“弱势场景”。
而辅助驾驶的弱势场景以及长尾场景这两类,都属于辅助驾驶是不太能hold住的状态。但bug就在于,即便在此类场景下,辅助驾驶可能依旧会勉励支撑而不是适时主动下线,所以我们作为驾驶者以及L4级辅助驾驶以下的责任主体,其实是要随时做好辅助驾驶撂挑子或者犯错误的心理准备的。
当然,非此类情况也应当时刻保持注意力,一方面不管责任归属哪一方,生命的归属于永远都是驾驶者自己;另一方面,其实所谓辅助驾驶“不可靠”情况,相当一部分都是偶发现象,所以还是需要驾驶者对道路情况有基本的掌握。

辅助驾驶弱势场景

辅助驾驶弱势场景主要应该就是指在感知层面首先出了问题,从而导致在决策层面,无有效信息或者被算法忽略。尽管现在的智能汽车通常不武装十个以上各类传感器,都不好意思做宣传,但不同的传感器也有各自的适用特征,而且传感器并非在任何场景下都能发挥100%的作用。
所以对于驾驶者来说,不管你是开的小鹏、蔚来还是极狐或特斯拉,首先应该清楚自己这台车上都拥有那几类传感器,或者更进一步了解一下传感器的特征以及哪些场景会让传感器相对弱势。
比如摄像头在反光、暗夜、雨雪等情况下的目标识别准确度会大大折扣,同时在正常交通状态中,对于和交通背景有一定颜色重叠的目标的识别也不靠谱,比如会把白色货车误识别为云朵,把路边彩旗识别为红灯,同样如果在缺乏高精地图且新旧车道线混乱的路段,摄像头对正确车道的识别一样不可靠。
不止是摄像头,毫米波雷达和目前还没规模上车的激光雷达在感知上都有各自的短板,就像雾霾天气对摄像头有影响,对激光雷达也一样。而静止障碍物对摄像头和毫米波雷达都是考验,摄像头依靠机器学习来训练识别物体,但静止物体的种类远比交通环境中的车型多太多,无法充分经过样本训练,但没经过样本训练就很难识别。
比如最近的蔚来一起的交通事故,就是由于缺乏对桩桶这类静止障碍物的样本识别,而导致悲剧发生,但同样的情况可能在其他辅助驾驶系统中却不会出现。
而毫米波雷达一是受限于目标对电磁波的反射敏感度,二是雷达的空间分辨率很差,而相对于路面静止障碍物不会移动的雷达回波又太多,在算法上通常会被忽略掉,所以毫米波雷达在视觉和毫米波融合感知方案中主要承担辅助角色,测速测距可以,对目标的识别本就没啥话语权,更别提静止目标。
此前我们在《超级开箱》栏目中,针对多款搭载辅助驾驶系统的车型进行测试,也遇到过以上多种场景,比如经典的cut in,前方车辆突然刹车停住等。其中最严重的,是雨天某自主品牌车型在辅助驾驶系统开启时,经弯道时误入另一侧车道,而系统自身却毫无知觉,相当危险,视频如文章开头,供大家参考。

辅助驾驶长尾场景

如果以上弱势场景都可以经过模拟训练进行加强,那么辅助驾驶的长尾场景,基本则属于可遇不可求的小概率事件,对于辅助驾驶厂家来说从感知、算法层面都很难提前做规避。
毕竟辅助驾驶系统大致上是在认知的范围内做决策,如果场景超出了认知可能就会被模糊处理或者错误处理,就像一个只见过木瓜没见过木瓜手雷的婴儿,他可能会误以为后者也是可以吃的,但实际交通环境中这种没见过的场景却根本无法穷举。
比如视觉识别为主的辅助驾驶车辆,遇到前方一个行人手中拿着一个Stop 标识牌或者前方车辆货物突然掉下来等此类现象,这也是对自动驾驶最大的挑战,因为你很难收集到所有的极端情况。
但总之,在辅助驾驶系统并不完全靠谱的当下,熟知自己的手中这台车辅助驾驶系统的弱势场景,以及时刻保持在线才是最重要的。毕竟生命只有一次,也永远归属于驾驶者自己

谢谢那么好看的你读完了全文,再给辛苦写作的小编点个“在看”吧!

(0)

相关推荐