自适应巡航系统是依赖毫米波雷达和视觉传感器来进行目标物识别的,系统并不是不能识别静止的物体,而是不能准确的将对本车行驶有影响和干扰的静止物体筛选出来。
也就是说,静止目标的识别没有问题,但是都被过滤掉了,为什么?
毫米波雷达的“世界”和人眼看到的世界是不一样的,人眼可以清晰的看到前方道路的交通参与者和道路基础设施,并将其分类,但毫米波雷达“看到”的都是点,也就是我们说的点云。
那么有些点对于毫米波雷达就比较难以处理,举个例子:前方路牌下有车辆行驶,那么回来的“点”究竟是车反射回来的,还是路牌反射回来的呢?
如果判断为是车反射回来的,那么可能会导致的结果是毫米波雷达会一直认为路牌这里有车,ACC会在这里发生异常减速甚至停车;如果认为是路牌反射回来的,那么这里真的有辆车是不是就撞了?
静止目标的筛选就变得非常难,但移动的目标“点”一直在变化,相对来说比较容易判断,这也就出现了大部分ACC功能的手册中都会说明“系统无法识别静止目标物”,这是为了ACC能够可用,不频繁的对道路基础设施做出“误响应”,毫米波雷达自我“封印”了静止目标物的识别能力。
否则你想一下,100公里的高速公路,限速牌、桥梁、隧道、路牌有多少,每个基础设施(有点夸张)都给你来一下急减速,你还怎么愉快的玩耍?
补充一下哈,静态目标物在低速下目前还是能识别和过滤的,但是还没有谁敢说100%正确识别。
因为传感器融合很麻烦。
驾驶辅助系统最常见的配置是毫米波雷达+摄像头。毫米波雷达能够直接检出回波的速度信息,但是分辨能力差,不能区分目标类型:比如前面的玩意是停着的车,还是井盖,还是挂在上面的路牌。摄像头反之,能够清晰的辨认目标方位、类型,但是并不能直接获得目标距离与径向速度。所以传统上来讲,毫米波雷达的用法是直接做多普勒静目标剔除,然后结合摄像头提供的目标方位信息,做出目标判断以及后续的操控决策。那么此时所有的静目标都已经剔除了。
想要良好地判断静止目标,我估计只有两条路:要么不去简单地剔除雷达的静目标回波,而是全部雷达信号都与摄像头信息做融合分析,这处理量就很大;要么依赖视觉提供的深度信息(双目视差、单目深度学习推断),并以此处理静止物体,这对算法要求就很高。
所以ACC、防追尾系统的性能,都高度依赖于处理算法。同样单摄像头+单毫米波雷达的配置,新架构的车可以比老车有强得多的性能。比如 @懂车帝App 做的主动安全评测,这类传感器配置既有吊打全场的沃尔沃XC60,也有性能惨不忍睹的一些老车。