时间:2022年04月27日 分类:科学技术论文 次数:
摘要:行驶中的两辆列车之间保持安全的距离是避免列车追尾事故发生的重要条件。由于机器视觉获得的图像数据信息丰富,可以根据采集到的图像进行多方面的集成检测,所以文中提出了一种基于机器视觉的列车测距方法。该方法以列车两条轨道不变的间距(1 435 mm)作为基准,来推算列车之间距离。该方法利用卷积神经网络对单目相机采集到的图像进行处理和分析,提取所需的轨道特征,再基于已有的小孔成像原理推导出世界坐标系与像素坐标系之间的映射关系,从而优化列车之间距离的计算式。实验结果表明,测距系统的误差率<6%,并且系统测量时间在 40 ms 之内,说明该方法实现了测距与在图像中获取到的其他信息有效的融合与集成,可用于对列车制动距离进行判断。
关键词:距离测量;机器视觉;单目相机;深度学习;图像处理;轨道检测;小孔成像原理;卷积神经网络
随着世界经济以及科学技术的高速发展,中国城市轨道交通规模也逐年增加。随着轨道交通客流量的增大以及行车速度的提高,列车制动距离也随着惯性的增大而增大。由于制动距离不足而造成的列车追尾事故时有发生。城市轨道交通运行的安全性是保障城市居民平安出行的关键,行驶中前后列车之间的距离就成为了列车运行安全的首要衡量标准,列车间距测量精度以及速度也尤为重要。当列车行驶过程中出现信号灯故障或调度问题时,列车的高速度和远距离的特性使得很难通过人眼来准确估计与前方列车尾部的距离。为了保障列车在特殊情况下仍能安全行车,需要列车测距系统来测量与前方列车车尾的距离,并将其转化成可视化数据向驾驶员发出预警。传统的测距手段有激光[1]、雷达[1-4]、超声波[5]等传感器技术。相对于传统的测距手段,视觉信号[6]的探测范围更广,目标信息更完整,价格相对更低。
文献[7]提出了一种基于融合雷达(用于距离测量)和图像传感器(用于障碍物检测)的铁路障碍物检测系统。随着机器视觉技术的发展,不仅可以从图像中获取障碍物信息,还可以利用图像实现距离的测量,因此更应该使用机器视觉技术获得更多适合于系统集成的信息。文献[8]预测智能交通系统(Intelligent Traffic System,ITS)将通过机器视觉来感知环境条件。在过去的几年里,机器视觉测距系统也被广泛使用于汽车领域。文献[9]通过安装在车尾的两个摄像头来捕捉立体图像,并进行图像处理,从而计算与后面车辆之间的距离,并将汽车之间的距离数据实时显示给后方车辆。虽然该方法对距离的计算值是准确的,但由于双目摄像头测距算法复杂且标定困难,使得双目测距系统延迟较大。
文献[10]使用汽车尾部的单个监控摄像头来对驾驶环境进行分析,通过图像处理计算出与后方车辆之间的相对距离、速度和加速度。但该方法得到的测量量程和测量精度远不能达到城市轨道交通的行驶需求。本文基于机器视觉提出了一种简单而精确的方法。目前基于单目视觉测距的方法在列车轨道领域还未见报道,并且传统单目测距的方法是利用物体的实际被拍摄面积和在该物体在图像中被拍摄的图像面积作比值,从而得出相机与被拍摄物体之间的距离。在列车轨道环境下,利用传统单目测距的算法难以计算其面积特征,所以提出利用轨道的特殊环境,即轨道之间的距离始终为 1 435 mm 来优化距离计算式,使器更加简洁。本文经过实验验证了该系统能够在 200 m 内有效检测前方列车距离,能够满足城市轨道交通安全行驶的要求。
1 轨道检测
为了获得行驶列车的前方信息,在列车车头安装了一个相机。将收集到的视频数据传输到处理单元中将图像分割成单帧图片,然后利用卷积神经网络(Convolutional Neural Network,CNN)对图片中的轨道进行有效检测。该方法包括两个主要阶段:
(1)在第一阶段中,利用卷积神经网络实现轨道环境图像的像素级分类。本文的网络主要包括编码层和解码层。编码层包括 3 个基本单元,其中两个核为 3 且步长为 1的卷积层和一个降采样层为一个基本单元。通过 3个最大值池化层得到原图像的 1/8 尺寸,然后使用空洞卷积增强特征图的感受野,从而对轨道进行有效提取。解码层则使用反卷积层,将 1/8 尺寸的特征图逐步还原到原始图像的大小。在反卷积过程中还原的图像分别与编码层降采样所得到的同等尺寸的特征图片进行融合,以提高检测精度。
(2)第二阶段采用多边形拟合方法来优化提取的轨道轮廓[11-14]。将两条轨道始终平行这一特性作为有效的参考信息来优化轨道检测结果。通过卷积神经网络对其进行轨道检测,分别为原始图像和检测图像。由于采集图像的条件有限制,实验无法收集到不同气候下的图像数据。为解决这一问题,本文通过合成技术合成了虚拟图像。本文以该虚拟图像作为轨道图像来模拟降雪气候,并验证了检测方法对该天气变化的鲁棒性。结果表明,该轨道检测方法在小雪(包括小雨)条件下仍然可以有效地工作。然而,在浓雾或其他恶劣天气的情况下,该检测方法的性能将受到限制。
2 距离公式推算利用两个轨道始终平行这一原则,不仅可以优化轨道的检测,还能简化距离公式的计算步骤。基于小孔成像原理,建立世界坐标系、相机坐标系、图像坐标系和像素坐标系以及 4 个坐标系之间的映射关系[15-16]。
以标准轨道间距(1 435 mm)为已知数据,推导二维图像的几何关系,从而优化距离测量的推导公式。但是在实际中,所拍摄的列车照片的尾部轮廓并不规则,这为检测轮廓以及计算其面积的工作带来了困难,使得研究人员难以从列车尾部得到精准的面积值。不仅如此,随着距离的增加,剖面往往会变得更加模糊,增加测量系统的测距结果误差。本文通过上述的轨道间固定的距离来优化测距计算式,使其更加简洁和精确。
3 相机标定基于机器视觉测距原理,根据张氏相机标定法[17-18]对采集图像的摄像机的内部参数和外部参数进行标定。首先,对事先准备好的棋盘格标定板进行拍摄,通过多次改变拍摄位置和角度捕捉到几张标定图像。然后,通过 OpenCV 提取棋盘格图像的角点以获得更丰富的坐标信息,从而对相机进行精准标 定 , 计 算 出 相 机 的 内 外 参 数 [15] 。
4 实验结果及误差分析
在 1∶1 列车轨道模型处,将摄像机放置在距离地面 1.5 m 处,并使其位于两条轨道的中心。为了保证测量的精准度,在采集数据的过程中需要将相机的光轴与地平面的夹角固定在一个值上,分别在光轴与水平面的夹角为 85°、90°和 95°拍摄了一组照片,并将 3 组照片进行处理分析。每组的第一张照片是在距列车尾部 40 m 处拍摄,然后每向后推移20 m就再采集一张图像,从而组成距离由40~200m 处的一组数据集。基于上述算法,在光轴与水平面的夹角为 90°时所计算的测量距离与实际距离。
为了进行有效的数据分析,本文还进行了多组对照实验,即光轴与水平面的夹角为 85°和 95°的距离测量实验。结果表明,通过机器视觉计算得到的距离精度大于 94%,并且测量每张图片的时间成本在 40 ms 以内。在实际中,火车的制动距离取决于许多因素,包括速度、摩擦、延迟时间、刹车片和制动缸、地理位置、质量分布[17]。根据《铁路技术管理规定》,直线运行的客运列车制动距离应满足以下指标:初始制动速度为 160 km·h-1、200 km·h-1和 300 km·h-1时,制动距离分别小于 1 400 m、2 000m 和 3 700 m。因此,根据这些要求可以计算出列车的加速度分别为-0.70 m·s-2、-0.77 m·s-2 和-0.94m·s-2。
在城市轨道交通中,列车的普遍运行速度为60 km·h-1,在地铁的制动加速度为-0.70 m·s-2 时,制动距离达 200 m 左右。因此,地铁之间应该保持至少 200 m 的距离以避免列车追尾。此外,由于图像检测需要时间成本,所以高速运行的列车的距离检测滞后。在实际生活中,即使是当前轨道交通最大速度,也可以以速度 600 km·h-1,运算时间 0.04 s进行粗略估算。依据此数据可得距离检测的滞后距离<7 m(600 km·h-1×0.04 s =6.7 m)。计算期间产生的滞后距离所造成的误差同样满足列车安全运行的要求。
综上分析可知,产生测量误差的主要原因在于两个轨道的中心点位置 、两点的像素坐标检测。由图 7 所示误差率所呈现的变化趋势可得,在前方列车距离自身列车距离小时,所采集到的轨道图片中轨道更为清晰,但是对于检测两条轨道的中心点则产生了更大的偏差,导致距离测量误差率较高;在前方列车距离自身列车距离大时,虽然图像的分辨率会随着距离的增加而降低,但定位 、 两点的精度却随之变高,使得误差率略微减小;再向更远的距离进行检测时,图像的分辨率对实验结果的影响成为主要因素,导致误差率不断升高。
因此,图像分辨率和轨道中心位置 、两点的检测所产生的误差组合带来了误差波动。当测量过程中相机的角度全程固定在一个合理范围内的值时,对测距结果的轻微影响可以忽略不计。单目测距的实验是通过静态摄影来获取的数据集,但即使是在视频数据中,也仍然能够从中提取出清晰图像作为关键帧。因此,在该测距系统中使用的静态图像也可以有效证明此方法能够实现避免列车碰撞的效果。实验证明,实验的结论不受相机角度和位置的影响,只要相机在数据采集过程中是固定的,该测距系统至少可以在 200 m 范围内达到标准。
5 结束语
本文提出了一种基于单目视觉的轨道交通距离测量方法,满足了智能车辆控制的实时性要求。该系统可以有效检测出轨道上运行的前后列车之间的距离,将距离转化成可视化信息呈现给驾驶员,为驾驶员提供报警信号。试验结果表明该系统能够满足轨道交通的需要,保证列车在适宜的气候条件下安全运行。在轨道交通系统中,可以方便地将已知固定轨道空间(1 435 mm)的距离测量与其他图像信息集成在一起进行障碍物检测,实现多功能融合。同时,该方法也是激光或雷达测量距离以外的一种冗余检测。
参考文献
[1] Jung H G,Cho Y H,Yoon P J,et al.Scanning laserradar-based target position designation for parking aidsystem[J].IEEE Transactions on IntelligentTransportation Systems,2008,9(3):406-424.
[2] Ibisch A,Stefan S,Harald A,et al.Towards autonomousdriving in a parking garage: Vehicle localization andtracking using environment-embedded LIDARsensors[C].Gold Coast:Proceedings of IEEE IntelligentVehicles Symposium,2013.
[3] Kenue S K.Selection of range and azimuth angleparameters for a forward looking collision warning radarsensor[C]Detroit:Proceedings of the Intelligent Vehicles'95,Symposium,1995.
[4] Sugimoto S,Tateda H,Takahashi H,et al.Obstacle detectionusing millimeter-wave radar and its visualization onimage sequence[C].Cambridge:Proceedings of theSeventeenth International Conference on PatternRecognition,2004.
作者:毕嘉桢 1,沈 拓 1,2,张轩雄 1