摘要
为解决裂缝检测深度学习模型训练时数据集标注效率低、成本高的现状,以及现有计算机标注算法对复杂环境适应性较弱的问题,基于计算机视觉与概率统计理论,提出低监督快速标注的概念,并以计算机标注和人工标注相融合的全新标注模式,形成了完整的裂缝检测模型数据集的快速标注算法。与人工逐像素标注相比,标注精度均为84%以上,且可节省至少85%的时间;与传统计算机标注方式相比,标注干涉和简单人工标注方式可以较好地处理复杂背景问题。经U‒Net深度学习模型验证,测试集的平均交并比可达0.90。
随着中国基建的高速发展,很多建筑、桥梁等基础设施不可避免地出现裂缝病害。裂缝识别向来是结构检测的重要内
深度学习的准确性往往依托于海量训练数据,但人工标注的主流数据集标注方式需要巨大的人工成
考虑到现有的裂缝识别算法大多基于理想状况,缺乏对复杂环境的适应性,难以满足工程应用的实际需求,故对裂缝数据集的标注算法进行探究,提出将人工检测与计算机视觉相融合的低监督快速标注方法。
计算机视觉对裂缝的识别是减少裂缝标注过程中人工工作量的重要基础,同样对裂缝检测的精度起决定性作用,其框架流程如

图 1 基于计算机视觉的裂缝检测流程
Fig. 1 Procedures of crack detection based on computer vision
因裂缝及其背景的像素值多呈现黑、白、灰3种颜
(1) |
式中:为输出图像像素点坐标;为输入灰度图像像素点坐标;为设置的最大值,常为255,以得到黑白输出图像。
如
(2) |
而后通过图像模糊,在保存裂缝特征的前提下尽可能地消除背景噪声对裂缝检测的影响。图像卷积运算是常用的去噪方法之
(3) |
式中:、分别为原始图像和处理后图像;为二维模板,可采用常见的区域。

图 2 基于计算机视觉的裂缝检测结果
Fig. 2 Result of crack detection based on computer vision
形态学操作的基本内容为腐蚀与膨胀。腐蚀是将核覆盖区域内的像素最小值赋给锚点,膨胀则取像素最大值。通过先腐蚀后膨胀的开运算,可以消除目标外的孤立点,使标注所得的裂缝更为连续,如
为增强局部的对比度,对图像直方图均衡化处理。将图像各点像素值较为平均地分散至0~255的范围,并将直方图归一化;按
(4) |
(5) |
式中:为原始图像的统计直方图;为原始图像的累计直方图。
在裂缝标注的基础上,利用Canny边缘检测算子提取裂缝边界。利用高斯滤波进行降噪处理后,计算每个像素点4个方向的梯度值,以梯度值最大的方向为边缘方向,再将保留的梯度值与设定的高、低阈值比较,处于高、低阈值之间的梯度作为最终梯度保留。经过以上步骤所得的如
为提高整体标注的鲁棒性与泛化能力,减少计算机视觉检测中的误差,在计算机标注后可设置适当的人工参与进程。
通过基于计算机视觉的裂缝标注,38%的图像可以预期的精度输出,而62%的图像精度都有进一步提升的空间。对于后者而言,约有84%的图像是因其背景存在噪声点,对计算机视觉标注产生干扰;而剩余16%图像存在的标注问题,一部分为主要裂缝(即图像中长度较长、宽度较宽的裂缝)边缘标注准确度不高,另一部分为次要裂缝(即图像中长度较短、宽度较细的裂缝)无法完整识别。针对以上存在独立噪声点、主要裂缝标注效果不佳、次要裂缝标注效果不佳3种情况,提出采用标注干涉和简单人工标注的融合处理方式,标注流程如

图 3 裂缝快速标注流程
Fig. 3 Procedures of fast crack detection
因噪声点具有颜色与背景差异明显、边界像素梯度变化较大等与裂缝相同的特征,噪声点被误判为裂缝是最常见的检测错误之一,且难以通过模糊或锐化等分割操作进行有效处理。可直接在相应标注窗口中,通过画笔等工具将噪声涂抹为背景颜色,从而将其在标注后的图像中去除,如

图 4 图像标注干涉结果
Fig. 4 Result of crack detection with interference
主要裂缝标注效果不佳的可能原因为裂缝与背景差异性不大、裂缝周围存在较严重的环境干扰、裂缝过于细小等,可采用弱化背景噪声并加强裂缝区域的思路进行标注。
为实现分区域处理,可以白色粗略地涂抹背景区域,如

图 5 简单人工标注方式1标注结果
Fig. 5 Result of crack detection with simple manual detection method 1
对于次要裂缝因过于细小、不连续性较强等原因而无法完整检测出的情况,采用“简单人工标注方

图 6 简单人工标注方式2标注结果
Fig. 6 Result of crack detection with simple manual detection method 2
对于是否需要在计算机视觉标注后引入人工参与、标注结果是否理想的判断,通过人工与计算机并行的方式进行。人工判断可以直观且准确地分析出标注结果不理想的原因,便于直接选择相应的处理方式。但为进一步提高图像标注中的衔接效率,可将标注结果先交予计算机进行判断,判断流程如

图 7 检测进程的计算机判断流程
Fig. 7 Procedures of detection process judgment with computer
图像直方图通常包含两个峰值,分别对应裂缝与背景的像素集,但第一峰值通常较低,少数图像直方图较低峰值不明显,如

图 8 数据集图像直方图示意
Fig. 8 Histogram of dataset image
对标注后的二值化图像进行连通域分析,可获取各部分裂缝的面积值。如该输出的面积数值结果较多或存在较小值,均可能为背景噪声所致。
考虑到简单人工标注后的涂抹边界,在模糊后仍有被检测出的可能,而由
(6) |
(7) |
式中:和分别为Scharr算子用于检测水平方向上和竖直方向上的边缘的卷积核模板。
将计算机标注和简单人工标注后的结果相比,如二者相差过大,则存在检测有误的可能性,因而以其相对误差作为是否在简单人工标注环节引入干扰因素的判断依据。通过上述对裂缝总标注面积和预估面积的差值、裂缝各部分标注面积、简单人工标注前后裂缝边缘像素梯度差值的分析判断,设定合理的阈值或参数,可在一定程度上协助分析裂缝标注结果是否可靠。
以Dorafshan

图 9 裂缝标注结果
Fig. 9 Results of crack detection
实验结果表明,绝大多数图像可通过计算机视觉与人工结合的标注方式得到很好的输出。由于目前对数据集标注精度没有有效的评判标准,故以纯人工标注图像作为对照,引入深度学习中检测评价函数交并比(IoU)和平均交并比(MIoU)的概念,进行标注精度分析。
IoU为真实标签和预测值的交和并的比值,MIoU是该数据集中的每一个类的交并比的平均。在裂缝标注任务中,裂缝与背景为两类标签,其计算公式如下:
(8) |
(9) |
式中:TP表示所提算法标注为正例、手动标注为正例的像素数;FP表示所提算法标注为正例、手动标注是反例的像素数;FN表示所提算法标注为反例、手动标注是正例的像素数。
设t1、t2分别为手动标注和所提算法标注所用的时间,时间缩短率的计算公式如下:
(10) |
在Windows 10系统、Intel(R) Core(TM) i7‒9750H CPU @ 2.60GHz(12CPUs)处理器的配置下,以Python语言得到的时间统计,以及标注像素值对比情况汇总如
图像 编号 | 手动标注 | 本文算法 | IoU (裂缝) | IoU (背景) | MIoU | |||
---|---|---|---|---|---|---|---|---|
裂缝像素数 | t1/s | 裂缝像素数 | t2/s | |||||
1 | 3 292 | 188 | 3 193 | 0.885 | 0.844 | 0.930 | 0.887 | 0.995 |
2 | 7 431 | 316 | 7 542 | 38.328 | 0.846 | 0.838 | 0.842 | 0.879 |
3 | 1 914 | 149 | 1 985 | 0.631 | 0.824 | 0.957 | 0.890 | 0.983 |
4 | 3 778 | 101 | 3 484 | 0.548 | 0.912 | 0.924 | 0.918 | 0.991 |
5 | 4 986 | 113 | 5 252 | 1.813 | 0.842 | 0.889 | 0.866 | 0.984 |
6 | 2 524 | 228 | 2 579 | 35.657 | 0.788 | 0.943 | 0.866 | 0.844 |
7 | 31 23 | 267 | 3 598 | 32.963 | 0.793 | 0.922 | 0.857 | 0.872 |
8 | 679 | 104 | 695 | 0.645 | 0.787 | 0.984 | 0.886 | 0.992 |
由

图 10 裂缝标注像素点对比
Fig. 10 Comparison of crack detection pixels
对从图像导入至图像存储完成所用的时间进行统计。计算机标注与标注干涉两种途径的统计结果表明,标注图像的最短时间为0.88 s,最长时间为13.64 s,平均时长为6.13 s,约70%的图像可在此环节输出;两种简单人工标注方式的统计结果表明,图像标注的最短时间为15.07 s,最长时间为67.60 s,平均时长为33.67 s,其余30%的图像基本均可在此环节输出。以所用时间为变量绘制的频率直方图如

图 11 裂缝标注时长频率直方图
Fig. 11 Frequency histogram of crack detection time
以上结果显示,整体标注平均时长仅为14.00 s。而纯手动对一张尺寸224224的图像进行像素级的裂缝标注,却需花费2~5 min不等的时间,若换用图像尺寸更大的数据集,该时间会成倍增加。相比之下,本文标注算法可节省85%甚至99%以上的时间,而参与机理决定了该算法标注时间与图像尺寸的关系不大,且受标注人员主观影响较小,基本不存在工作疲劳、缺乏经验等可能影响标注结果的情况。
传统计算机标注方式只能对图像进行整体的模糊或锐化操作,背景中存在的噪声会因与裂缝的处理变化同步,难以得到有效处理。本文算法通过简单人工标注,以最简方式对裂缝与背景进行分区,通过不同操作与边界处理,解决复杂背景对裂缝标注的干扰问题。极少量图像无法合理标注的主要原因为,裂缝过于细小,宽度仅有1~3个像素点,在图像模糊或形态学操作的过程中易被忽略;裂缝中存在碎石颗粒的填充,裂缝识别时产生多个边界等。
选取利用本文算法标注的331张图像,70%作为训练集,30%作为测试集,利用Ronneberger等提出的U‒Net深度学习模

图 12 深度学习的训练结果
Fig. 12 Results of deep learning model training
训练过程的损失值变化情况如

图 13 裂缝标注模型训练损失
Fig. 13 Training loss of crack detection model
将训练模型应用于实际拍摄的工程照片,效果如

图 14 实际工程图像测试结果
Fig. 14 Testing results of engineering images
提出低监督快速标注的概念,通过将计算机视觉与人工标注紧密结合、优势互补,进行裂缝检测。研究内容包括基于计算机视觉的裂缝检测,和将人工标注与计算机视觉相融合的多层次标注框架。通过标注像素点精度与标注时长的对比,以及U‒Net深度学习模型的训练,对本文算法进行了结果分析与验证,得出了以下结论:
(1)与人工逐像素标注的结果对比,本文算法标注结果精度均为84%以上,可至少节省85%的时间。本文算法可在保证准确率的同时,提升数据集标注效率,降低人工监督成本。
(2)本文算法通过简单人工标注,可以有效处理背景中存在的噪声。
(3)对于裂缝过于细小,以及裂缝中存在碎石颗粒填充的情况,所提算法无法合理标注。
本文算法仍有进一步提升的空间。如何在标注进程判断与方式选择中提高计算机所起的作用,是否能够通过可变参数的思想优化裂缝检测效果,进而提升标注的精度与稳定性,将在后续工作中进一步研究。所提低监督快速标注算法,也可在充分的验证分析后,尝试应用于车道、路标等其他类型目标的标注中。
作者贡献声明
刘 超:提出研究主题,监督指导,论文修改。
许木南:研究框架构建,算法研究,数据分析,论文写作与修改。
曹思娴:算法研究与验证,论文写作。
牛圣尧:算法研究与验证。
朱安琪:算法研究与验证。
参考文献
周颖,刘彤.基于计算机视觉的混凝土裂缝识别[J].同济大学学报(自然科学版),2019,47(9):1277. [百度学术]
ZHOU Ying, LIU Tong. Computer vision-based crack detection and measurement on concrete structure[J]. Journal of Tongji University(Natural Science), 2019,47(9):1277. [百度学术]
李岩,杨豪杰,刘辉,等.基于深度学习的混凝土裂缝检测研究[J].信息技术与信息化,2021(12):233. [百度学术]
LI Yan, YANG Haojie, LIU Hui, et al. Concrete crack detection research based on deep learning[J]. Information Technology and Informatization,2021(12):233. [百度学术]
苑玮琦,薛丹.基于机器视觉的隧道衬砌裂缝检测算法综述[J].仪器仪表学报,2017,38(12): 3100. [百度学术]
YUAN Weiqi, XUE Dan. Review of tunnel lining crack detection algorithm based on machine vision[J]. Chinese Journal of Scientific Instrument,2017,38(12): 3100. [百度学术]
CHA Y J,CHOI W.Deep learning-based crack damage detection using convolutional neural networks[J].Computer-Aided Civil and Infrastructure Engineering,2017,32(5):361. [百度学术]
GIBB S,LA H M,LOUIS S.A genetic algorithm for convolutional network structure optimization for concrete crack detection [C] // 2018 IEEE Congress on Evolutionary Computation(CEC).Piscataway:IEEE,2018:1-8. [百度学术]
李良福,马卫飞,李丽,等.基于深度学习的桥梁裂缝检测算法研究[J].自动化学报,2019,45(9):1727. [百度学术]
LI Liangfu, MA Weifei, LI Li, et al. Research on detection algorithm for bridge cracks based on deep learning[J]. Acta Automatica Sinica,2019,45(9):1727. [百度学术]
吕博.一种机器学习数据集半自动标注方法研究[J].信息通信技术与政策,2019(7):44. [百度学术]
LÜ Bo . Research on a semi-automatic labeling method for machine learning data sets[J]. Information and Communications Technology and Policy,2019(7):44. [百度学术]
蔡莉,王淑婷,刘俊晖,等 .数据标注研究综述[J].软件学报,2020,31(2):302. [百度学术]
CAI Li, WANG Shuting, LIU Junhui, et al. Survey of data annotation[J]. Journal of Software,2020,31(2):302. [百度学术]
白雪冰,韩志峰,蒋龙泉,等.音视频数据半自动化标注方法[J].微型电脑应用,2021,37(8):9. [百度学术]
BAI Xuebing, HAN Zhifeng, JIANG Longquan, et al. Semi-automatic labeling method for audio and video data[J].Microcomputer Applications,2021,37(8):9. [百度学术]
赵世敏,王鹏杰,曹乾,等.基于图像语义的弱监督显著性物体检测[J].计算机辅助设计与图形学学报,2021,33(2):270. [百度学术]
ZHAO Shimin, WANG Pengjie, CAO Qian, et al. Weakly supervised salient object detection based on image semantics[J]. Journal of Computer-Aided Design & Computer Graphics,2021,33(2):270. [百度学术]
WANG Y, ZHANG J, KAN M, et al. Self-supervised equivariant attention mechanism for weakly supervised semantic segmentation[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society Press,2020:12272-12281. [百度学术]
高庆飞, 王宇, 刘晨光, 等. 基于卷积神经网络算法的混凝土桥梁裂缝识别与定位技术[J]. 公路, 2020, 65(9): 268. [百度学术]
GAO Qingfei, WANG Yu, LIU Chenguang, et al. Crack identification and positioning technology of concrete bridge based on convolutional neural network algorithm[J]. Highway, 2020,65(9):268. [百度学术]
DORAFSHAN S, THOMAS R J, MAGUIRE M. SDNET2018: an annotated image dataset for non-contact concrete crack detection using deep convolutional neural networks[J]. Data in Brief,2018,21(1):1664. [百度学术]
RONNEBERGER O, FISCHER P, BROX T. U‒Net: convolutional networks for biomedical image segmentation[M]//Medical Image Computing and Computer-Assisted Intervention—MICCAI 2015. Cham:Springer International Publishing , 2015:234-241. [百度学术]