自动驾驶遍地开花 传感器“四足鼎立”
- 来源:ITS智能交通 作者:龙涛
- 2019/10/6 9:05:1333759
【安防展览网 视点跟踪】自动驾驶汽车通过传感器取得外部环境信息。在自动驾驶的江湖里,各类传感器应运而生。
以2020年前后为目标节点,世界各国的汽车制造商正在为实现车辆的自动驾驶而展开研发竟争。自动驾驶汽车利用摄像头以及毫米波雷达、LiDAR(激光雷达,英文全称为 Laser Imaging Detection and Ranging)、超声波雷达等多种传感器采集信息,经计算机处理后实现对车辆周围状况的感知。
通过感知与“事故”相关联的风险,计算机计算出规避风险的路径,在人不介入的情况下,将该计算结果直接通过车CAN(Controller Area Network)网络通信等传递给控制系统,以控制车辆的运动。
摄像头
可见光、近外线、运用红外线的应用,由于单目像头难以对物体距离进行测量,通过多台摄像头利用三角测原理实观距离测量的立体视觉方法得到广泛应用。有如 OpenCV等可供使用的计算机视觉库,今后OpenVN等硬件加速器也可获得有效使用,由于远红外线可感知温度分布,可用于夜间行人探测等领域。
今后摄像头可感知光线的波长范围将扩大可见光逐步材大至还红外线、远红外线,将现对人随着感知围从可眼所不可见物体的感知。同时,HDR(高动态范围成像)技术也将得到应用。通过拍摄曝光度不同的一组照片,可以以此合成近似于人眼所见的图像。该技术在智能手机上已得到普及,将来也将被运用于汽车领域。
如果使用多目立体摄像头,可在一定程度上实现深度、距离的感知。富士重工的“ Eyesight"等设备通过使用双目摄像头,实现了对物体在三维层面的认知。此外,一些公司也开发了通过使用摄像头阵列,在一定程度上实现立体视觉的系统。该理念认为将多个摄像头并列,将实现更高的感知精度。
通过摄像头拍摄车内的情况也是有必要的。例如,车内摄像头可以感知驾驶员在驾驶车辆时的视线位置。瑞典Tobi公司正在对此展开研发,并计划实现车用。该技术通过面部识别,并在此基础上监控眼球运动,对眼球注视方向进行计算测量。当前,该技术已作为个人计算机的输入终端获得了应用。将视线位置作为光标所处位置,通过按压鼠标按钮,可实现点击操作。
此前该技术的实现需要佩戴特制眼镜,并使用其内藏传感器,通过判断眼球黑白结合部的反射光差异实现对眼球运动的感知。目前已实现通过安装在一定距离之外(例如安装于显示器)的摄像头,在面部识别的基础上对视线进行认知。
该技术在今后可被用于对疲劳驾驶等现象的识别。通过该技术,当 Level3的自动驾驶汽车欲将控制权交还驾驶员时,需事先提前多久给出通知,以便驾驶员有充裕的准备时间接管车辆,通过该技术也将可能得到判明。目前Tobii公司及英特尔公司正在出资开发该技术。
毫米波雷达
当前使用的毫米波雷达有24GHz、60GHz、76GHz等多种规格。与使用可见光、红外线、激光等光源的传感器相比,米波达波长要长,可穿透雨、雪、雾,不容易受坏天气的影响。传感器有坚固的结构,防污性能强。不仅可测距,还可以利用多普勒效应测量相对速度。
由于空间解析能力低,在自动驾驶中常作为辅助传感器用于相对速度测量等功能。
76GHz频段为当前的标准(日本国内限定为60GHz),24GHz频段预计将来将逐渐作废。欧洲将于2013年作废(24.25~26.65GHz为2018年),此后将转至采用79GHz频段。当前正在对79GHz频段在上的频率分配展开讨论,与60GHz/76GHz频段相比,可获得使用的频率范更广,79GHz在距离、速度、角度探测精度上的优势已得到了确认。76GHz用于前方远距离探测,79GHz用于车辆周边环境高分辨率监测,两者共存。
由于频率不同的毫米波雷达各有其特性,并且在其他用途上使用的相同频率雷达可能彼此间将发生干涉,因此需要探讨如何对超声波雷达的使用场合进行限制。例如,76GH2雷达在普通道路上可能会对其他服务造成干涉,因此只能运用于高速公路上使用。
对于自动驾驶汽车而言,雷达在高速公路及普通道路上都得使照因此必须选定任何场所均能使用的、不运用于其他服务的专用频率带,并根据近距离(40m以内)识别、远距离(100~200m)识别、视野角测量等不同用途进行区分使用。
此外,如果不对各频段用途进行统一定义,则可能出现自动驾驶用雷达频段在不同国家各不相同的情况。
IiDAR
LiDAR使用发射器发射激光束,并通过接收器对遇障碍物后返回的激光束进行探测。LiDAR: Laser Imaging Detection and Ranging(激光成像探测与测量)或Lght Detection and Raging(光线探测与测量)。
通过发射激光脉冲,计算散射光从发射到遇障碍物返回的时间间隔( Time of Flight,下行时间),可对三维空间内的物体形状及距离进行有效感知,可在较长距离内(当前车用长距离为120m)实现感知。使用对人体无影响的Cass1激光,昼夜均可使用。与在机器人上的应用相比,需要考虑远距离测量及存在多个被测对象等问题。
通过测量光线发射、返回的时间差,使用TOF(Txsd Flihgt,飞行时间)原理可以测量物体的距离。根据物体形的不同,反射光将被发散,某些时候仅有微量的光线被接收器接收。通过接收到的微弱反射信号,可以了解物体所处的方位及距离。当前,运用以上原理的设备有 Velodyne公司的“HDL-64e”“HDL-32e”等,价格均十分昂贵。
随着今后系统结构简化,激光雷达发射器等半导体在实现量产的同时,价格也将下降。此外,测量用 LiDAR与感知车辆周边异常情况的LiDAR在技术参数上是不同的。常规摄像头无法感知夜间环境,而LiDAR不论昼夜均可使用。
超声波
超声波在自动驾驶领域的运用并不广泛。
波长比可见光长1万倍,成像模糊,通常使用的超声波:40kHz,波长8.5mm左右(分辨能力的上限)。衰减严重,在空气中传播时,声波的波长持续变化,能量以热的形式被散发,高频减严重,可到达距离短。无类似光学透镜的成像元件。
在完全黑暗以及波雾、浓烟等光学传感器无法使用的环境下,也可对物体成像。在横向及纵向上具备一定的空间解析能力。通过多普勒效应可探测物体的速度,价格相对较低。
使用超声波可对车辆周边约40cm范围内的物体实现感知。可在车辆车泊车时,或需无碰撞安全通过狭窄道路时使用。超声波的优点可总结如下:低价;不使用光线也可对物体进行成像:在纵向、横向上具备一定的空间解析能力:通过多普勒效应可探测物体的速度等。
结束语
20世纪90年代后半期,将摄像头和毫米波雷达数据融合的技术已在车辆上得到了较广泛的运用。在2001年款的日产shima上,也使用了摄像头及雷达对物体进行感知。今后,为实现高度驾驶辅助及自动驾驶,传感器融合将变得愈发重要。
LiDAR可很好地分辨物体的距离及形状。由于摄像头可以辨色,可用于文字识别,雷达则可以感知距离。通过对摄像头、LiDAR或雷达的整合,可以实现从多数信号灯中识别出哪个是近的等类似功能。通过使用各传感器扫描同一物体,将各传感器的优点相结合,可以比仅使用单一传感器实现对物体更为正确的感知。
未来的自动驾驶已经开启,离我们不远。(原标题:自动驾驶遍地开花 | “四足鼎立”的传感器)