自动驾驶传感器配置需求随着汽车智能化和电动化的快速发展不断增加。当前的传感器趋向于从探测范围、探测精度、探测能力上进行不断优化以便适应更多的边缘场景。使用更高级能力的传感器到底能带来哪些优势,又能解决哪些问题,如何对车身周围配置的传感器进行最优化配置和选择将是我们必须要面对的问题。

高阶自动驾驶系统的传感器仍然按照当前自动驾驶系统一样,配置了包含毫米波雷达、摄像头、激光雷达、超声波雷达等传感器配置。然而,在毫米波雷达、摄像头、激光雷达的选择上却是增加了几个台阶。首先,是毫米波雷达采用了4D高精度毫米波雷达,从分辨率角度得到质的飞跃。其次是,摄像头采用了高清摄像头,其分辨率的巨大提升使得其更加容易探测出更小的目标。最后,是激光雷达从原始的机械式激光雷达向MEMS甚至Flash激光雷达的转变。
本文将针对如上三类传感器的转变详细说明其对自动驾驶系统探测能力到底有哪些提升。
4D毫米波雷达优势
从当前已经出过得自动驾驶事故(无论是特斯拉的大卡车相撞还是蔚来汽车主装上高速作业车)中不难看出,高速自动驾驶最容易出现事故的地方就是在于传感器对于静止目标的识别上。当前,驾驶辅助系统架构常采用摄像头融合毫米波雷达的方式进行检测,而对于静止目标的识别主要是依靠摄像头的视觉检测,由于视觉感知的目标都必须经过模块或算法训练,而数据模型中无法涵盖所有类型目标数据,且识别过程中通常采用的图像分割会把静止目标当成背景区域而过滤到,因此,视觉检测很难做到对目标的有效识别。
这时,很多情况下会依靠传统毫米波雷达进行静止目标检测。而由于当前的毫米波雷达是不具备测高能力的,这就意味着其检测过程中难以判断前方静止物体是在地面还是在空中,无法细化刹车场景,容易出现如下情况的误检测导致AEB误制动或漏制动。
高阶自动驾驶系统采用了4D毫米波雷达,其原理是指在原有距离、方位、速度的基础上增加了对目标的高度维数据解析,能够实现 “3D+速度” 四个维度的信息感知。主要的感知参数表示如下:

除开如上述的检测能力外,4D毫米波雷达又称为 “成像雷达”,其中的成像概念是指其具备超高的分辨率,可以有效解析目标的轮廓、类别、行为。这意味着4D毫米波雷达系统可以适应更多复杂路况,包括识别较小的物体,被遮挡的部分物体以及静止物体和横向移动障碍物的检测等。

具体来说,对于4D雷达来说是如何提升目标信息检测能力从而提升自动驾驶系统控制能力的呢?

1、4D雷达高分辨率点云
首先,成像雷达可提供精度更高的道路边缘信息,为高速行车与变道提供更精确的辅助定位信息;对静止目标尤其是拥堵条件下目标探测精度更高,可以有效避免追尾等安全事故。
如何做到的呢?很多工程师以为是其分辨率提升促使其深度学习可以更好地利用在点云匹配学习算法中,但是笔者并不这么认为。因为再强的深度学习碰上毫米波雷达那样稀疏的图像也基本无能为力的,能检测到静止目标主要还是因为其能够有效检测高度信息。4D毫米波雷达增加了俯仰角天线通道,通常这种通道数的增加会使得其雷达芯片的运算量成倍的增加。
2、AI深度学习的目标识别
其次,自动驾驶中最难的场景之一是对于行人的识别能力,而当前的识别往往依赖于摄像头,如果我们基于成像雷达的高分辨特征是否能够对其行人的识别产生好的辅助效果呢?答案是肯定的。这个过程主要是结合行人摆臂、车轮转动等微动特征,利用更高分辨率的时频分析方法,提取目标的微多普勒信息,通过机器学习等目标分类方法,进行VRU目标的微多普勒识别。
3、基于毫米波雷达的高精定位
众所周知,高精定位系统的检测过程需要相应的传感器建立密集的毫米波雷达点云信息,且依托于环境结构,且不受雨、雪、雾等环境因素的影响。而这些要素则是毫米波雷达本身所具备的能力。因此,利用毫米波雷达本身就可以进行简单的定位建图,这里我们称之为RSLAM。而如果系统本身搭载了诸如激光雷达或高清摄像头,则毫米波雷达的建图能力可以很好的作为该两者的辅助传感器。
4、硬件处理能力
4D雷达成像主要的部件包括比3D雷达多更多的收发天线,同时最重要的是其双板处理芯片:一块用于RF收发器(主要是PCB板搭载的多跟收发天线)、SRAM数据采集和USB类型的数据流;另一个用于数据处理(包含基于点云的深度学习)和BT/Wi-Fi连接。因此,很多毫米波雷达供应商通常还采用芯片级联或通过软件新建虚拟发射天线的方式增加发射端对环境物体的点云信息搜集比率。一般的,高分辨成像雷达随着级联芯片的增多,点云密度与精度越来越高,通过人工智能(AI)中深度学习等在雷达的应用就带来了更多优越的先验条件(比如点云聚类),接近于视觉的分类效果。
高分辨率摄像头是否能够带来质的飞跃
随着整车E/E 架构的演化趋势,传感ECU 也开始由分布式向集中式进行演变,其中的算力也不再向以前一样由各分ECU来承担,而是由中央处理器进行集中式处理,这一过程中的计算机视觉及图像处理则由中央域控制器进行软件集成,而摄像头将只用于 “图像采集” 的纯sensoR。
随着自动驾驶级别的提升,对摄像头的要求也越来越高,其中主要体现在对摄像头的分辨率上,从最开始30万像素实现基本的全景泊车升级到100多万像素实现半自动泊车,又发展到现在的200万像素实现基本的行车对中控制。并且随着自动驾驶级别对于感知能力的进一步提升需求以及市场需求的推动,未来的高级别自动驾驶车辆中都在规划应用800万级别的高清像素摄像头,用于对更远距离的目标进行识别和监测。

从基础能力上看,升级为800万摄像头最大的挑战在于其对感知算力的大幅提升。举个例子,像地平线目前对800万摄像头的处理DEMO实验,采用了J3对其进行算法处理,这无异于小马拉大车,导致不得不将高分辨率图像进行下裁剪。裁剪后的图像其分辨率降低后,才可进行相应的包含语义分割、目标级匹配等处理。因此,类似高清车载摄像头需要有与高分辨率摄像头相匹配的算法和测试能力。
那么业界普遍关注的话题就是800万像素摄像头与算力、算法以及数据之间的关系。其中包括:
1、如果用高清摄像头(如800万像素)代替之前低分辨率摄像头,需要多大算力的芯片的支持,对于整个域控制器的发热量及功耗会有多大提升?
首先摄像头对算力的需求不仅跟摄像头自身的性能参数有关(位数、帧率、分辨率等),也和自动驾驶实际的应用场景和感知算法模型相关。
TOPS=Function(caMeRa intRinSiC paRaMeteRs,USecase,peRceptRon algoRITHM)
比如,以前视为例,基于同样分辨率的摄像头,如果其应用场景仅限于识别车辆、行人、车道线、限速牌这几类目标,由于其算法匹配库中的模型是简单的,因此其对算力的匹配需求来说是一个相对轻量级的。若其应用场景需要系统识别的更多目标(包含一些不常见或异类目标,如落石、不明障碍物、红绿灯、路标)、探测的更远距离(包含一些小动物、小障碍物等)、更高识别精度(如更加清晰的航向定位、更加准确的距禇
