摘要
提出了一种基于目标检测与迭代阈值分割的道路标线分割算法。首先采用基于BiFormer改进的YOLOv5目标检测算法对道路标线区域进行快速定位与框选,然后运用快速迭代阈值分割对框选区域内的道路标线进行精细提取,最后对提取后的道路标线采用韦伯对比度进行人眼可视度评估。结果表明:该方法能够完成道路标线的快速准确提取,并实现对道路标线可视度的有效检测。
道路标线是道路交通设施的重要组成部分,一般为施划或安装在路面上的各类图案、文字、实体标记、突起路标和轮廓标,为道路交通参与者提供道路交通相关信息,引导道路交通的有序进
传统的道路标线检测主要采用人工测量方法,测量结果受人为因素影响较大,不利于道路标线规范化养
深度学习算法在提高道路标线检测的可靠性和准确性上具有明显优势。Husan
虽然对于道路标线检测已有大量研究,但是大多数研究出发点是辅助车辆自动驾驶,关于道路标线损坏评估的研究较少,也极少涉及道路标线的可视度评估。因此,提出了一种联合目标检测和迭代阈值分割的道路标线精细提取方法,并以人眼灰度感知标准为参考,实现对道路标线区域可视度的快速评估。
2016年提出的YOLO算法是一种一阶段的目标检测算
YOLO算法从最初版本不断升级,衍生出v2、v3、v4、v5等版本。本研究将YOLOv5算法作为目标检测模型。相比于前代模型,YOLOv5进行一系列的主干网络优化、数据增强、多正样本匹配,提升了模型的训练速度和识别效果。YOLOv5网络结构可分为四部分:输入网络(Input)、主干网络(Backbone)、信息融合网络(Neck)与分类预测网络(Head)。输入网络主要进行图像数据增强与适应模型的图片变形处理;主干网络对物体提取基础特征;信息融合网络通过对主干网络提取到的基础特征进行多维度融合获取特征图,以提升检测效果;分类预测网络负责对上级网络输出的特征图进行多尺度目标检测,并输出结果。
在路面图像采集时,道路标线这类小目标不可避免地出现压缩以及畸变等现象,因此需要优化模型来提高小尺寸样本的识别精度与区分度。将BiForme
BiFormer是一种具有双向特征变换(Transformer)的神经网络模型,与原版Transformer模型不同,BiFormer包含2个Transformer编码器,一个从左到右地处理输入序列,另一个从右到左地处理输入序列,以捕捉序列中的前后依赖关系。此外,BiFormer还可以通过将2个编码器的输出进行拼接来捕捉更丰富的前后信息,进一步提高模型性能。
然而,BiFormer的设计目的并不是用于目标检测,本研究主要利用BiFormer注意力机制以提升YOLOv5的检测能力。注意力机制是指在任务处理时,检测模型能够将重点放在特定的信息上,而忽略其他无关或不重要信息的能力。BiFormer采用双向路由注意力(BiLevel Routing Attention),可以将每个位置的向量与其他位置的向量进行交互,并根据它们之间的相对重要性分配不同的权重。在BiLevel Routing Attention中,每个编码器都包含多个Transformer注意力头,这些Transformer注意力头并行计算,可以捕捉不同尺度和不同类型的信息,学习图像不同区域之间的关联关系,关注区域间的并集,利用稀疏性跳过最不相关的计算区域,减轻运算压力。
本研究将BiFormer的BiLevel Routing Attention模块嵌入YOLOv5的信息融合网络中的特征金字塔网络(FPN)路径,在尽可能减少参数量的前提下提升模型性能,自注意力模块改进如

图1 自注意力模块改进
Fig.1 Self-attention module improvement
根据道路标线与背景灰度差异较大的特点,本研究采用迭代阈值分割算法以降低算法硬件需求与运算时间,对YOLOv5算法提取后的分块图像进行阈值分割,获取道路标线的准确分割区域。
迭代阈值分割提取流程如下:
(1)通盘扫描全图灰度数组,得到全图灰度最大值与最小值,以两者中值作为初始阈值。
(2)根据计算阈值进行分割,将图像分为标线与路面两部分。
(3)遍历标线区域与路面区域的像素数量,并提取像素灰度。
(4)根据像素数量计算标线区域与路面区域的平均灰度,以两者中值更新阈值。
(5)重复步骤(2)—步骤(4)直至阈值不再变化,退出循环。对于分割后的道路标线二值化图像,通过坐标匹配获取标线原始图像,最后计算得到标线灰度平均值以及路面背景灰度平均值。
基于人眼视觉特性(human visual system, HVS)提出了一种基于二维图像的标线可视度评估方法。由HVS可知,人眼仅能在图像中分辨出灰度差异大于某一特定阈值的像素对,这种最小可感知的灰度差异被称为人眼临界可见偏差(JND)。在不同灰度背景下,JND的取值有所不同。JND曲线描述了各种灰度背景下JND取值变化。基于JND,可以进一步构建人眼感知图像灰度标准。范晓鹏

图2 人眼JND‒背景灰度关系
Fig.2 Relationship between JND of human eye and background grayscale
根据HVS理论,人眼对于图像灰度对比度比灰度差更为敏感,故采用标线的灰度对比度进行可见性评
(1) |
式中:为视觉阈值;为灰度差;为背景灰度。
对阈值分割得到的标线灰度平均值以及路面背景灰度平均值进行计算,获取道路标线的韦伯对比度,即道路标线的平均灰度与周围路面的平均灰度之差与周围路面的平均灰度的比值,计算式如下所示:
(2) |
式中:为道路标线对比度;为道路标线平均灰度;为道路标线周围路面平均灰度。
为了使人眼能够识别道路标线,标线对比度需要达到某一阈值要求,道路标线对比度视觉阈值‒背景灰度曲线可由人眼JND‒背景灰度关系图像经过下式计算转化得到:
(3) |
式中:为此背景灰度下道路标线对比度最小值;为最小人眼临界可见偏差值。当道路标线对比度计算值高于曲线值时,则认为标线可视度合格,结果如

图3 道路标线对比度‒背景灰度最小可视度曲线
Fig.3 Minimum visibility curve of road marking contrast and background grayscale
为保证模型测试的可靠性,模型训练与测试均在同一设备上进行,模型测试开发环境如
类型 | 型号 |
---|---|
处理器 | Intel Core i5 13600KF |
显卡 | RTX 4070Ti |
内存 | DDR4(3 600 MHz, 32 GB) |
主板 | ASUS B660M‒PLUS |
开发语言 | Python 3.8 |
操作系统 | Win11专业版 |
本研究基于CalTech Lanes数据

图4 CalTech Lanes数据集中的各类道路标线
Fig.4 Road markings in CalTech Lanes dataset
项目 | 各类型道路标线数 | |||
---|---|---|---|---|
直行箭头线 | 左转箭头线 | 右转箭头线 | 斑马线 | |
训练集 | 912 | 572 | 442 | 605 |
验证集 | 209 | 90 | 121 | 127 |
测试集 | 22 | 19 | 21 | 18 |
合计 | 1 143 | 681 | 584 | 750 |
基于PyTorch框架搭建YOLOv5目标检测模型,首先加载预训练权重,并在此基础上进行训练。研究使用的YOLOv5预训练权重通过在COCO数据
研究中还增加了Attentio
模型 | 左转箭头线检测精度 | 右转箭头线检测精度 | 平均精度 |
---|---|---|---|
YOLOv5 | 0.484 | 0.475 | 0.479 |
YOLOv5+BiLevel Routing Attention | 0.578 | 0.433 | 0.505 |
YOLOv5+Attention | 0.482 | 0.449 | 0.466 |
YOLOv5+AttentionLePE | 0.481 | 0.305 | 0.393 |
由模型比选结果可知,BiFormer注意力机制的加入提高了模型对于左转箭头线与右转箭头线这类小尺寸标线的检测能力,明显优于其他类型注意力机制,加入了一层BiFormer注意力机制模型的平均检测精度相较于原始模型提升了约6%。
此模型对于直行箭头线的检测精度为0.927,对于斑马线的检测精度为0.967,对于左转箭头线的检测精度为0.578,检测效果如

图5 道路标线检测效果
Fig.5 Road marking detection results
YOLOv5模型可在生成检测框的同时一并生成检测目标的类别序号、中心点坐标位置、检测框尺寸、图像尺寸等信息。根据以上信息,可以完成道路标线的截取,并为道路标线的分割提供小尺寸图像。截取后图像如

图6 裁剪后的道路标线图像
Fig.6 Cropped road marking images
在完成对道路标线的检测框截取后,测试了迭代阈值分割算法对于道路标线区域的精确提取效果。

图7 道路标线二值图
Fig.7 Road marking binary images
在CalTech Lanes数据集中随机抽取了100张样本图片对道路标线进行可视度评估,在100张图片中背景灰度最小值为34,最大值为96,对比度最小值为0.39,最大值为1.35。依据道路标线对比 度‒背景灰度最小可视度曲线进行道路标线可视度判定,结果如

图8 道路标线可视度评估
Fig.8 Road marking visibility evaluation
(1)在原版YOLOv5模型的Neck结构中添加BiFormer注意力模块可以提升整体检测准确度,并且增强模型对箭头类小尺寸标线的检测能力。
(2)目标检测算法联合迭代阈值两阶段分割方法可以对道路标线进行快速精准提取,有效降低了道路标线提取的计算力需求以及处理时间。
(3)通过图像灰度韦伯对比度计算,以人眼灰度可视度为标准,实现了基于二维图像下的道路标线可视度检验。
作者贡献声明
董 侨:提出研究主题,指导研究思路设计,针对研究主题提出对策建议,对论文撰写做出指导。
林烨龙:构建研究框架,确定研究方法,进行数据分析。
王思可:参与研究框架设计,论文撰写与整理。
楚泽鹏:参与研究框架设计,论文撰写与整理。
陈雪琴:参与研究框架设计,对研究提出对策建议。
颜世傲:对研究提出对策建议,整理修正论文。
参考文献
国家市场监督管理总局.道路交通标志和标线 第3部分 道路交通标线:GB 5768.3―2009 [S].北京:中国标准出版社,2009. [百度学术]
State Administration for Market Regulation. Road traffic signs and markings. Part 3, road traffic markings: GB 5768.3―2009 [S]. Beijing: Standards Press of China, 2009. [百度学术]
张殿业,张开冉,金键.道路标线对驾驶行为模式的影响[J].中国公路学报, 2001, 14(4):2. [百度学术]
ZHANG Dianye, ZHANG Kairan, JIN Jian. Road line and driving behavior mode [J]. China Journal of Highway and Transport, 2001, 14(4):2. [百度学术]
董凯.城市道路标线有效寿命分析[J].交通标准化, 2009(15):98. [百度学术]
DONG Kai. Residual serve life of pavement mark in urban area [J]. Commuications Standardization, 2009(15):98. [百度学术]
BURGHARDT T E, MOSBCK H, PASHKEVICH A, et al.Horizontal road markings for human and machine vision [J].Transportation Research Procedia, 2020, 48:3622. [百度学术]
苏文英,杜玲玲.国家标准《道路交通标线质量要求和检测方法》修订说明[J].交通标准化, 2009(24):20. [百度学术]
SU Wenying, DU Lingling. Amendment explanation for national standard “Specification and test method for road traffic markings” [J]. Commuications Standardization, 2009(24):20. [百度学术]
初秀民,付军,严新平.交通资产管理系统的研究现状与展望[J].公路, 2003(12):5. [百度学术]
CHU Xiumin, FU Jun, YAN Xinping. Study reality and prospect on transportation asset management [J]. Highway, 2003(12):5. [百度学术]
章先阵,吴超仲,初秀民,等.基于机器视觉的公路交通设施信息采集系统设计[J].武汉理工大学学报(信息与管理工程版),2004, 26(5):62. [百度学术]
ZHANG Xianzhen, WU Chaozhong, CHU Xiumin, et al. An automatic collection system design for highway infrastructure inventory based on machine vision [J]. Journal of Wuhan University of Technology (Information & Management Engineering), 2004, 26(5):62. [百度学术]
LI L, LUO W, WANG K C P. Lane marking detection and reconstruction with line-scan imaging data [J]. Sensors, 2018, 18(5):1635. [百度学术]
MARIO S, DIEGO G, ANA D, et al. Road marking degradation analysis using 3D point cloud data acquired with a low-cost mobile mapping system[J]. Automation in Construction, 2022, 141:104446. [百度学术]
BAHMAN S, NICOLAS P, DIDIER B. 3D road marking reconstruction from street-level calibrated stereo pairs [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(4): 347. [百度学术]
SUN L, KAMALIARDAKANI M, ZHANG Y M. Weighted neighborhood pixels segmentation method for automated detection of cracks on pavement surface images [J]. Journal of Computing in Civil Engineering, 2016, 30(2): 04015021. [百度学术]
WANG S K, CHEN X Q, DONG Q. Detection of asphalt pavement cracks based on vision transformer improved YOLO V5[J]. Journal of Transportation Engineering, Part B: Pavements, 2023, 149(2):04023004. [百度学术]
刘春,艾克然木·艾克拜尔,蔡天池.面向建筑健康监测的无人机自主巡检与裂缝识别[J].同济大学学报(自然科学版),2022,50(7):921. [百度学术]
LIU Chun, AKBAR A, CAI Tianchi. UAV autonomous inspection and crack detection towards building health monitoring [J]. Journal of Tongji University (Natural Science), 2022, 50(7):921. [百度学术]
章先阵.道路标线养护信息自动采集技术研究[D].武汉:武汉理工大学,2005. [百度学术]
ZHANG Xianzhen. Research on the automatic collecting technology of the maintenance data of the road marking [D]. Wuhan: Wuhan University of Technology, 2005. [百度学术]
刘新宇,吴勇,李龙.道路标线图像分割方法研究[J]. 交通与计算机,2008,26(6):56. [百度学术]
LIU Xinyu, WU Yong, LI Long. Road markings image segmentation method [J]. Computer and Communications, 2008, 26(6):56. [百度学术]
介炫惠.道路交通标线的检测算法研究[D].长沙:中南大学,2013. [百度学术]
JIE Xuanhui . Research on detection algorithm of traffic markings [D]. Changsha: Central South University, 2013. [百度学术]
YU H, YUAN Y, GUO Y, et al. Vision-based lane marking detection and moving vehicle detection [C]//International Conference on Intelligent Human-Machine Systems & Cybernetics. Piscataway: IEEE, 2016:574-577. [百度学术]
ZHANG A, WANG K C P, YANG E H, et al. Pavement lane marking detection using matched filter[J]. Measurement, 2018, 130(12):105. [百度学术]
HUSAN V, HYUNG H, JIN K, et al. Recognition of damaged arrow-road markings by visible light camera sensor based on convolutional neural network [J]. Sensors, 2016, 16(12):2160. [百度学术]
TIAN Y, GELERNTER J, WANG X, et al. Lane marking detection via deep convolutional neural Network [J]. Neurocomputing, 2018, 280:46. [百度学术]
YE X Y, HONG D S, CHEN H H, et al. A two-stage real-time YOLOv2-based road marking detector with lightweight spatial transformation-invariant classification [J].Image and Vision Computing, 2020, 102(10):103978. [百度学术]
ALZRAIEE H, LEAL RUIZ A, SPROTTE R. Detecting of pavement marking defects using faster R-CNN [J]. Journal of Performance of Constructed Facilities, 2021, 35 (4):04021035. [百度学术]
TIAN J, YUAN J, LIU H. Road marking detection based on mask R-CNN instance segmentation model [C]//2020 International Conference on Computer Vision, Image and Deep Learning (CVIDL). Piscataway: IEEE, 2020: 246-249. [百度学术]
MUTHALAGU R, BOLIMERA A, KALAICHELVI V. Vehicle lane markings segmentation and keypoint determination using deep convolutional neural networks [J]. Multimedia Tools and Applications, 2021, 80(7):11201. [百度学术]
REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection [C]//Computer Vision & Pattern Recognition. Piscataway: IEEE, 2016:779-788. [百度学术]
ZHU L, WANG X, KE Z, et al. BiFormer: vision transformer with bi-level routing attention [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2023: 10323-10333. [百度学术]
范晓鹏,朱枫.人眼灰度感知建模及其在图像增强中的应用[J].计算机工程与应用, 2018, 54(13):7. [百度学术]
FAN Xiaopeng, ZHU Feng. Human gray-scale perception modeling and its application in image enhancement [J] Computer Engineering and Applications, 2018, 54(13):7. [百度学术]
KLEIN S A, CARNEY T, BARGHOUT-STEIN L, et al. Seven models of masking [J]. Proceedings of SPIE:The International Society for Optical Engineering, 1997, 3016:13. [百度学术]
周克亮,卢凌,汪犹酣.基于视觉阈值效应的能见度推算方法[J].交通与计算机, 1995, 13(6):58. [百度学术]
ZHOU Keliang, LU Ling, WANG Youhan. Visibility calculation based on visual threshold effect [J]. Computer and Communications, 1995, 13(6): 58. [百度学术]
CalTech Lanes dataset [DB/OL]. [2023-05-22]. http://www.mohamedaly.info/datasets/caltech-lanes. [百度学术]
COCO: common objects in context [DB/OL].[2023-05-22]. https://cocodataset.org/. [百度学术]
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [J]. Advances in Neural Information Processing Systems, 2017, 30:3. [百度学术]
DONG X, BAO J, CHEN D, et al. CSWin transformer: a general vision transformer backbone with cross-shaped windows [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2022: 12124-12134. [百度学术]