网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于两阶段代价矩阵和动态注意力的双目立体匹配网络  PDF

  • 王志成
  • 王泽灏
同济大学 电子与信息工程学院,上海 201804

中图分类号: TP391.4

最近更新:2024-10-22

DOI:10.11908/j.issn.0253-374x.22483

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

目前大多数先进的双目立体匹配网络通过构建4D代价矩阵以保留图像的语义信息,增加了网络的计算量开销。为了解决上述问题,提出了两阶段的组合代价矩阵和多尺度动态注意力的EDNet++网络。首先从全局的、粗粒度的视差搜索范围上构建的基于相似度的代价矩阵作为引导,在局部的搜索范围上实现细粒度的组合代价矩阵,其次提出基于残差的动态注意力机制,其根据中间结果信息自适应地生成空间上的注意力分布,并且通过迁移实验证明了该方法的有效性,最后在各大公开数据集上的对比实验结果表明,相较于其他方法,EDNet++方法能够达到算法精度和实时性的良好平衡。

准确快速的深度估计对于机器人导航、三维重建、自动驾驶等应用具有重要意义。双目立体匹配作为一种深度估计的算法,被广泛运用在各个领域。双目立体匹配任务是在左右视图间进行相同像素的匹配,并且计算相同像素的距离偏差(俗称视差)。

传统方法则以人工设计的特征提取和匹配成本聚合算法为主,对于那些无纹理和重复纹理的区域匹配效果较差。卷积神经网络(CNNs)已经被广泛采用来克服传统立体匹配中的难点。文献[

1-4]通过构建4D代价矩阵和三维卷积实现了最高的精度。虽然4D代价矩阵可以保留丰富的语义信息,但是它显著提高了计算量,并且很难达到实时的性能。文献[5]通过二维卷积进行左右图相似度的特征聚合。文献[6-8]采用了类似的方法,在速度和准确性之间达到良好的平衡。然而,基于相似度的方法在每个视差维度上都只存在一个单一的特征维度,这种表达能力始终是薄弱的,如何合理地将基于相似度和拼接的代价矩阵相融合是一个重点的难题。

1 相关工作

经典的立体匹配网络流程包括特征提取、构建代价体积、特征聚合和视差计算4个步

9。近年来,CNN被引入到立体匹配任10中,引起了人们的广泛关注。一些从真实场景中收集的数据集,如KITTI、Middlebury,经常被用于微调和作为测试基准。

1.1 代价匹配计算

基于CNN的匹配代价计算方法对立体匹配精度有很大的贡献。有2种常用的匹配代价计算方法。一种是使用二

11或一5卷积运算层(称为相关层)。文献[6-712-13]采用了这种特征向量之间的内积。Liang6建立了初始视差估计的相关体积,它遵循通过特征一致性学习的视差细化模块。另一种流行的计算匹配成本的方法是通过连接来自对面立体图像的对应特征,形成一个4D代价矩阵。这个方法首先可以在文献[1]中找到。文献[14]在Scene Flow数据集上表现最好,其引入了DenseNet15的思想,进一步改进了PSMNet2。Zhang4提出了带有2个引导聚合层和15个3D卷积的GANet,以实现最先进的性能。Gu16将代价矩阵分解为多个阶段的级联形式,使用上一阶段的粗粒度视差图,可以获得更高空间分辨率和更窄视差范围的成本体积。除了级联成本,Shen17提出了一种融合的代价矩阵表示方法来处理较大的域差。

1.2 立体匹配网络的残差网络

在立体匹配任务中,残差学习策略被广泛用于精化视差估

6][18。Gidaris等19提出了像素级图像标记的深度网络架构,将任务分为3个部分:① 检测初始像素级标签,② 用新标签替换标签,③ 改进新标签。Pang8提出了一种级联残差学习方案,采用两阶段CNN,其中第2阶段通过产生残差信号来细化估计。Jie20提出了一种循环模型来增强基于左右一致性检查的视差估计,这意味着网络为2个视图生成视差图,并在每个循环步骤识别不匹配区域。Yu21构建的代价矩阵依赖于像素级深度残差,通过使用由粗到细的策略来细化深度图并改变深度搜索范围。Stucker22专门构建了一个基于U-Net23的网络,通过回归残差校正来增强重建。为了满足实时推理的需要,AnyNet24根据应用的需要,采用残差学习策略灵活地进行输出视差估计。通过聚合边缘信息进行残差学习,构建多任务网络进行边缘检测和立体匹配。Cheng25首次将神经结构搜索(NAS)应用于立体匹配任务。该算法用于自动确定传统立体匹配流程中的特征网和匹配网。

2 方法

2.1 网络结构

提出的EDNet++网络结构如图1所示。借鉴DispNetC

5的网络框架作为特征提取网络(backbone),在特征提取网络上,利用权值共享编码器网络中conv3的最后左、右特征映射,形成一阶段的代价矩阵。关于两阶段的代价矩阵构建的更多信息见第3.2节。提出的两阶段组合代价矩阵构建的细节见图1。利用二维卷积对合并后的矩阵进行聚合并对视差进行回归。在解码器部分,网络遵循由粗到细的策略,逐步细化视差。为了生成注意力感知的残差特征,网络中使用了动态注意力模块。基于注意力的动态注意力在图1的右下角得到了很好的说明。与具有6个输出尺度的DisNetC5不同,本网络结构将视差预测减少到4个尺度,删除全分辨率的1/16和1/32的预测。

图1  EDNet++框架图总览

Fig. 1  Overview of proposed EDNet++

2.2 两阶段组合代价矩阵

提出了两阶段的组合代价矩阵,通过一阶段的相似度矩阵得到粗粒度视差结果,在二阶段,在局部视差搜索范围的基础上使用相似度矩阵和4D代价矩阵结合的方式构建代价矩阵,见图2

图2  两阶段代价矩阵构建流程

Fig. 2  Overview of two-stage cost volume construction

在第1阶段,给定一对立体图像特征fLfR,相似度代价矩阵计算如式(1)

Ccd,x,y=1NfLx-d,y,fRx,y      (1)

式中:x1,x2为2个特征向量x1x2的内积;N为输入特征的通道数,代价矩阵的形状为N×D×H×Wd为视差搜索范围D内的某一个视差值,空间大小为H×WfLfR分别代表左视角图像特征和右视角图像特征。

假设在一阶段视差估计网络中已经通过相似性代价矩阵和聚合网络获得了粗粒度的基准视差图s-1。接下来需要设置初始平面数n和初始平面间隔n来自定义二阶段的视差搜索范围。相对视差范围dk定义为

dk=kn,k{-n2,-n2+1,,0,,n2-1} (2)

基准视差图s-1的尺寸HW与特征图的fLfR相同,下一步则根据基准视差s-1对特征图进行变形,建立第2阶段的组合代价矩阵。其中第2阶段的代价矩阵的计算方法为

    Cbdk,x,y=1nM{fLx-dk+s-1(x,y),y,fRx,y} (3)

式中:M代表组合代价计算;s-1(x,y)为坐标点(xy)在基准视差图s-1对应的视差值。该算法将特征点转移到基准视差上,并使用它作为每个像素搜索的中心点,如图3所示。

图3  视差搜索范围的变化

Fig. 3  Change in disparity search range

在第2阶段,将基于拼接的4D代价矩阵信息融合进来,4D代价矩阵的构建方式定义为

Ctd,x,y=T{fLx-d+s-1(x,y),y,fRx,y} (4)

其中T为特征拼接操作,在得到形状为N×D×C×H×W的4D矩阵后,使用3个三维卷积进行聚合,将其压缩为N×D×1×H×W的形状。最后将相似度矩阵和压缩4D代价矩阵级联形成组合代价矩阵。

2.3 动态注意力机制

提出一个基于动态注意力的多尺度残差模块,引导残差网络更多地关注在当前尺度下空间中那些不准确的区域。假设当前尺度是c(1/2c原图分辨率),根据在上一个尺度c-1下的视差估计的上采样结果s^c-1,up,可以根据对右图Ic,R进行采样得到合成的左图I˜c,L,如式(5)所示:

I˜c,Lx,y=Ic,R(x+s^c-1,upx,y,y) (5)

根据合成的左图和真实左图可以得到误差图,为

Ec,L=|I˜c,L-Ic,L| (6)

一个3层的基于2D卷积的网络被用于接收由误差图、粗粒度视差图和左右视图拼接而成的输入fc,a

来自解码器网络的上卷积特征映射和来自编码器网络的对应尺度的特征fc,in会和注意力模块的输入相拼接,然后与注意力分布图在空间维度上相乘后形成残差特征,为

fc,ar=T{fc,in,fc,a}σ(fc,a) (7)

σ()代表sigmoid函数。该残差特征会输入二维卷积堆叠网络,输出尺度c下的残差视差rc,最终预测视差结果s^c定义为

s^c=s^c-1,up+rc (8)

图4所示,发现注意力图在误差图输入的引导下自适应地关注不同类型的区域。

图4  注意力分布图在不同尺度上的可视化

Fig. 4  Attention map in different scales

2.4 损失函数

对于不同尺度s下的视差估计结果,使用逐像素点的L1平滑损失去计算,为

Lcsc,s^c=1Pi=1PL1(sc,i-s^,i) (9)

式中:P为视差图中的像素点数量;s^c,i为尺度c下的视差估计结果的第i个像素点的视差值;sc为视差真值。

最终的视差损失函数是基准视差损失和多尺度视差损失的结合,为

l=c=-1CλcLcsc,s^c (10)

式中:λc为在尺度c下的损失权重。

3 性能验证

3.1 数据集和评估指标

4个公共数据集用于训练和测试本文提出的EDNet++。

SceneFlow:SceneFlow数据

5由39 824对合成立体RGB图像(5 454个图像对用于训练,4 370个图像对用于测试)组成,全分辨率为960×540。它有很多训练数据,所以它经常被用作预训练数据集。

Kitti:Kitti 2012和Kitti 2015都是真实场景的数据集,全分辨率为1 242×375。这2个数据集的深度真值由激光雷达产生,因此只有稀疏的真值可用。总共有400对图像用于训练,400对用于评估。

Middlebury:Middlebury数据集是在真实场景中由高分辨率的结构化照明捕获的。它只有15对训练用的双目图片和15对测试用的双目图片,所以在训练时很可能会引起过拟合。

ETH3D:ETH3D数据集包括27个训练帧和20个测试帧,涵盖各种室内和室外场景。

在Scene Flow数据集上用像素点平均误差(EPE)、1像素误差和3像素误差来评估模型。像素点平均误差计算像素的平均视差误差,1像素误差和3像素误差分别测量EPE大于1像素和大于3像素的平均百分比。官方指标(例如D1-all)报告用于KITTI 2012和KITTI 2015数据集的评估。

3.2 训练细节

用PyTorch

26实现EDNet++,并用Adam(动量为0.9,二阶动量为0.999)作为优化器训练模型。对于Scene Flow数据集,原始图像被随机裁剪到320×640作为输入。网络模型在2个NVIDIA RTX 2080ti GPU上进行训练,共70个轮次,批处理大小为8个(每个GPU 4个)。初始学习率设置为0.001,在第20个轮次之后每10个轮次降低一半学习率。损失权重设置为λd=0.3,λ0=1.0,λ1=λ2=0.8,λ3=0.6。使用了预训练的Sceneflow模型,然后在KITTI 2012和KITTI2015上进行微调,首先在2个数据集上混合训练1 000个轮次,再在2个数据集上分别进行了400个阶段的训练,以获得各自的提交结果。对于KITTI数据集,使用恒定的学习速率0.000 1。

3.3 消融实验

两阶段的代价矩阵构建方法让EDNet++相对于EDNet

27而言提高了模型的泛化能力和推理速度。通过对比实验验证了两阶段构建方法对泛化效果的改善。 在Sceneflow对EDNet27和EDNet++进行了70个轮次的训练,并在KITTI2015训练集、Middlebury 2014测试集和ETH3D测试集上进行了测试。如表1所示,该方法可以显著提高EDNet27在所有数据集上对所有指标的泛化能力。B2B4分别为预测值和实际值相差2像素和4像素的百分比,E为像素误差百分比。

表1  二阶段构建方式在泛化性能上的表现
Tab. 1  Improvement in generalization
网络结构MiddleburyKITTI2012KITTI2015ETH3D
B2B4E像素误差百分比大于3E像素误差百分比大于3EB2B4
一阶段代价矩阵 54.00 41.20 20.40 43.70 8.00 48.30 10.78 10.31 6.23
二阶段代价矩阵 45.10 30.80 11.80 15.70 1.90 14.90 2.29 6.54 2.96

在Middlebury数据集上最显著的改善是平均像素误差,下降了42%。EDNet++在KITTI 2015上测试时,在误差大于3像素和EPE这2个指标方面的性能分别提高了66%和77%,在KITTI 2012上测试时相同指标的性能分别提高了62%和76%。

3.4 模型迁移

主要的立体匹配聚合网络可分为优化网络(如Steronet

18、StereoDRnet28)和堆叠沙漏网络(如PSM2、FADNet29)2种类型。这2种网络结构有一个共同点,就是它们在上采样过程中不可避免地产生误差。将基于注意力的残差模块应用于这2种网络中,通过实验证明其有效性,基于注意力的残差模块的优化网络和堆叠沙漏网络框架如图5所示,基于注意力的残差模块用虚线标记。将粗预测结果和相应的误差图作为输入并输出相同尺寸的注意图,将注意图与特征在空间维度上作点乘。

图5  基于注意力的残差模块在两类聚合网络中的应用

Fig. 5  Application of attention-based residual module into two kinds of aggregation networks

表2揭示了基于注意力的残差模块和组合的代价矩阵在Sceneflow测试集的效果。所有网络都在SceneFlow训练集上按照文献中提到的默认批大小和学习率训练10个轮次后在测试集上进行测试,运行时间指的是在显卡rtx2080上推理一对1 390×950像素图像所需要的时间。

表2  基于注意力的残差模块和组合代价矩阵的在不同网络结构上的迁移实验
Tab. 2  Portability of attention-based spatial residual module and cost volume combination module
网络框架代价矩阵残差结构指标结果
原始组合代价矩阵原始动态注意力EPE时间/s
StereoNet18 1.55 0.169
StereoNet-A 1.37 0.172
StereoDRNet27 1.33 0.171
StereoDRNet-A 1.23 0.175
PSMNet2 1.09 0.338
PSMNet-A 1.05 0.343
AANet30 1.60 0.143
AANet-A 1.50 0.150
AANet-CA 1.27 0.281
DispNet5 2.11 0.056
DispNet-A 2.11 0.068
DispNet-CA 2.00 0.073
FADNet29 1.74 0.077
FADNet-A 1.63 0.086
FADNet-CA 1.61 0.092

可以看到所有的网络在通过基于注意力的残差网络迁移后精度都得到了提高,相应地在时间复杂度上也有些许上升。改善最大的是AANet

30,EPE下降了20%。虽然所有的网络模型受限于训练成本没有训练到各自的最优状态,但是也足以说明该模块的有效性和可移植性。

3.5 实验结果

将提出的算法模型与现有的最先进的方法在推理速度、内存消耗和准确率方面进行比较,使用的数据集有Sceneflow、KITTI 2015和KITTI 2012。

表3所示,EDNet++由于实验波动误差比EDNet

27少0.01,但是运行速度快了14%,相较于其他先进算法而言,运行速度最快,并且能够保持较低的EPE:本文算法在运行时间上比PSMNet2快9倍、比GwcNet3快5倍、比CFNet4快3倍,并且在算法精度上优于这些方法。本文算法虽然在算法精度上没有达到最高(相较于ACVNet31,EPE上升了0.26),但是在运行时间上大幅度优于ACVNet(运行速度比它快了4倍)。

表3  几种方法在Sceneflow数据集上的EPE和运行时间
Tab. 3  EPE values and running time on scene flow dataset of several state-of-the-art methods
方法EPE时间/s
PSMNe 1.09 0.453
CFNet 0.97 0.180
GwcNet 0.76 0.254
Bi3D 0.73 内存溢出
ACVNet 0.43 0.225
AANet++ 0.72 0.068
EDNet 0.68 0.059
EDNet++ 0.69 0.051

注:   推理时间是在单个NVIDIA 2080ti GPU上测试的结果,分辨率为576×960。

在Kitti数据集上,本文将对比实验分为2组,如表4所示。表中NA分别表示非被遮挡和所有区域的平均离群点占真实像素值的百分比;fa分别表示前景和所有真值平均离群值的百分比。EDNet

27和EDNet++在Kitti上迁移学习之后有着相似的结果。首先,与其他性能最好的基于3D卷积的方法相比,EDNet++在评估前景像素的视差时仍然取得了具有竞争力的测评结果,并且运行速度相对更快。将本文方法与基于2D卷积的实时模型进行比较。表5显示了本文方法和其他最新方法相比具有竞争性。为了强调本文方法的效率之高,在实验阶段与一些主流的基于3D卷积的模型比较了计算复杂度、内存消耗和推理速度。表5显示,本文模型需要更少的内存消耗,表中所有结果都在单个NVIDIA RTX 2080Ti GPU上进行了测试,分辨率为1 248×384。

表4  KITTI 2015测试集的基准测试结果
Tab. 4  Benchmark results on KITTI 2015 test sets
方法N/%A/%时间/s
fafa
GANet4 3.37 1.73 3.82 1.93 0.360
GCNet1 5.58 2.61 6.16 2.87 0.900
MC-CNN32 7.64 3.33 8.88 3.89 67.000
HD33 3.43 1.87 3.63 2.02 0.140
CSN16 3.55 1.78 4.03 1.59 0.600
DeepPruner-B34 3.18 1.95 3.56 2.15 0.180
Bi3D35 3.11 1.79 3.48 1.95 0.480
ACVNet32 3.07 1.65 0.200
CFNet17 1.73 1.88 0.180

EDNet

27

(本文模型)

3.33 2.31 3.88 2.53 0.050

EDNet++

(本文模型)

3.14 2.62 3.69 2.83 0.045
AANet30 4.93 2.32 5.39 2.55 0.075
DeepPruner-B31 3.18 1.95 3.56 2.59 0.060
FADNet29 3.07 2.59 3.50 2.82 0.050
RLStereo36 4.76 2.38 5.38 2.64 0.038
MADNet37 8.41 4.27 9.20 4.66 0.020

EDNet

27

(本文模型)

3.33 2.31 3.88 2.53 0.050

EDNet++

(本文模型)

3.14 2.62 3.69 2.83 0.045

注; 加粗表示最佳结果;加下划线表示次优。

表5  运行时间、占用内存量和计算成本的比较
Tab. 5  Comparisons of running time, running memory, and computational costs
方法内存/GBGFLOPs时间/s
PSMNet6 4.83 937.9 0.393
GANet4 6.53 1936.98 2.43
GwcNet3 4.27 899.99 0.272
Bi3D35 10.74 4212.05 0.899
EDNet27(本文模型) 2.52 162.92 0.053
EDNet++ (本文模型) 2.78 167.59 0.047

图6展示了本文方法和KITTI2015数据集上其他最新方法的视差和误差对比。

图6  KITTI 2015测试集的视差预测结果Fig, 6 Results of disparity prediction for KITTI 2015 testing data

在Middlebury数据集上测试了模型的泛化能力。所有模型都在Sceneflow上进行训练。由图7可见,EDNet++可以在低纹理区域产生更平滑、更连续的视差估计,并生成更清晰的边缘。

图7  Middlebury 2014数据集的模型泛化能力可视化

Fig. 7  Evaluation of model generalization on Middlebury 2014 dataset

4 结语

提出了一个高效的双目立体匹配网络框架,其中包括两阶段的组合代价矩阵和多尺度动态注意力残差模块。采用两阶段的理论将相似度矩阵和基于特征拼接的4D代价矩阵相结合,使模型的学习能力提高的同时,大幅提高算法的泛化能力,同时还生成了具有更少参数的代价矩阵。此外,多尺度动态注意力模块的使用大幅提高了残差学习框架的效率,并通过大量迁移实验证明了该模块在其他由粗到细粒度的框架的网络中也具有良好表现。以KITTI和Sceneflow数据集证明了该方法的优越性。

作者贡献声明

王志成:论文撰写、深度神经网络设计。

王泽灏:论文撰写、深度神经网络设计、实验实施。

参考文献

1

KENDALL AMARTIROSYAN HDASGUPTA Set al. End-to-end learning of geometry and context for deep stereo regression[C]//2017 IEEE International Conference on Computer Vision (ICCV). VeniceIEEE201766-75. [百度学术] 

2

CHANG JCHEN Y. Pyramid stereo matching network[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake CityIEEE20185410-5418. [百度学术] 

3

GUO XYANG KYANG Wet al. Group-wise correlation stereo network[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long BeachIEEE20193268-3277. [百度学术] 

4

ZHANG FPRISACARIU VYANG Ret al. Ga-net: Guided aggregation net for end-to-end stereo matching[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long BeachIEEE2019185-194. [百度学术] 

5

MAYER NILG EH ̈ AUSSER Pet al. A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las VegasIEEE20164040-4048. [百度学术] 

6

LIANG ZFENG YGUO Yet al. Learning for disparity estimation through feature constancy[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake CityIEEE20182811-2820. [百度学术] 

7

YANG GZHAO HSHI Jet al. Segstereo: Exploiting semantic information for disparity estimation[C]//Proceedings of the European Conference on Computer Vision (ECCV). MunichIEEE2018636-651. [百度学术] 

8

PANG JSUN WREN J Set al. Cascade residual learning: A two-stage convolutional neural network for stereo matching[C]//2017 IEEE International Conference on Computer Vision Workshops (ICCVW). VeniceIEEE2017878-886. [百度学术] 

9

SCHARSTEIN DSZELISKI R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms[J]. International Journal of Computer Vision2002477. [百度学术] 

10

ZBONTAR JLECUN Y. Stereo matching by training a convolutional neural network to compare image patches[J]. Journal of Machine Learning Research20161765): 1. [百度学术] 

11

DOSOVITSKIY AFISCHER PILG Eet al. Flownet: Learning optical flow with convolutional networks[C]//2015 IEEE International Conference on Computer Vision (ICCV). SantiagoIEEE20152758-2766. [百度学术] 

12

CHEN ZSUN XWANG Let al. A deep visual correspondence embedding model for stereo matching costs[C]//2015 IEEE International Conference on Computer Vision (ICCV). SantiagoIEEE2015972-980. [百度学术] 

13

FENG YLIANG ZLIU H. Efficient deep learning for stereo matching with larger image patches[C]//2017 10th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI). ShanghaiIEEE20171-5. [百度学术] 

14

NIE GCHENG MLIU Yet al. Multi-level context ultra-aggregation for stereo matching[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long BeachIEEE20193278-3286. [百度学术] 

15

HUANG GLIU ZVAN DER Maaten Let al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). HonoluluIEEE20172261-2269. [百度学术] 

16

GU XFAN ZZHU Set al. Cascade cost volume for high-resolution multi-view stereo and stereo matching[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). SeattleIEEE20202492-2501. [百度学术] 

17

SHEN ZDAI YRAO Z. Cfnet: Cascade and fused cost volume for robust stereo matching[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). NashvilleIEEE202113901-13910. [百度学术] 

18

KHAMIS SFANELLO SRHEMANN Cet al. Stereonet: Guided hierarchical refinement for real-time edge-aware depth prediction[C]//Proceedings of the European Conference on Computer Vision (ECCV). VeniceIEEE2018573-590. [百度学术] 

19

GIDARIS SKOMODAKIS N. Detectreplacerefine: Deep structured prediction for pixel wise labeling[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). HonoluluIEEE20177187-7196. [百度学术] 

20

JIE ZWANG PLING Yet al. Left-right comparative recurrent model for stereo matching[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake CityIEEE20183838-3846. [百度学术] 

21

YU AGUO WLIU Bet al. Attention aware cost volume pyramid based multi-view stereo network for 3d reconstruction[J]. ISPRS Journal of Photogrammetry and Remote Sensing. Netherlands: Elsevier2021175448. [百度学术] 

22

STUCKER CSCHINDLER K. Resdepth: Learned residual stereo reconstruction[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). SeattleIEEE2020707-716. [百度学术] 

23

RONNEBERGER OFISCHER PBROX T. U-net: convolutional networks for biomedical image segmentation[C]//2015 Medical Image Computing and Computer-Assisted Intervention (MICCAI). MunichSpringer Nature2015234-241. [百度学术] 

24

WANG YLAI ZHUANG Get al. Anytime stereo image depth estimation on mobile devices[C]//2019 International Conference on Robotics and Automation (ICRA). MontrealIEEE20195893-5900. [百度学术] 

25

CHENG XZHONG YHARANDI Met al. Hierarchical neural architecture search for deep stereo matching[J]. Advances in Neural Information Processing Systems. Vancouver: IEEE20203322158. [百度学术] 

26

PASZKE AGROSS SMASSA Fet al. Pytorch: An imperative style, high-performance deep learning library[C]//WALLACH H, LAROCHELLE H, BEYGELZIMER A, et al. Advances in Neural Information Processing Systemsvolume 32. Curran Associates, Inc., Vancouver: IEEE, 2019:8026-8037. [百度学术] 

27

ZHANG SWANG ZWANG Qet al. Ednet: Efficient disparity estimation with cost volume combination and attention-based spatial residual[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). NashvilleIEEE20215433-5442 [百度学术] 

28

CHABRA RSTRAUB JSWEENY Cet al. Stereodrnet: Dilated residual stereo net[J]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach: IEEE201911786-11795. [百度学术] 

29

WANG QSHI SZHENG Set al. FADNet: A fast and accurate network for disparity estimation[C]//2020 IEEE/International Conference on Robotics and Automation (ICRA). ParisIEEE2020101-107. [百度学术] 

30

XU HZHANG Jet al. Aanet: Adaptive aggregation network for efficient stereo matching[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). SeattleIEEE20201956-1965. [百度学术] 

31

XU GCHENG JGUO Pet al. Attention concatenation volume for accurate and efficient stereo matching[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New OrleansIEEE202212981-12990. [百度学术] 

32

ZBONTAR JLECUN Y. Computing the stereo matching cost with a convolutional neural network[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). BostonIEEE20151592-1599. [百度学术] 

33

YIN ZDARRELL TYU F. Hierarchical discrete distribution decomposition for match density estimation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long BeachIEEE20196037-6046. [百度学术] 

34

DUGGAL SWANG SMA Wet al. Deeppruner: Learning efficient stereo matching via differentiable patchmatch[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). SeoulIEEE20194383-4392. [百度学术] 

35

BADKI ATROCCOLI AKIM Ket al. Bi3d: Stereo depth estimation via binary classifications[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). SeattleIEEE20201597-1605. [百度学术] 

36

YANG MWU FLI W. Rlstereo: Real-time stereo matching based on reinforcement learning[J]. IEEE Transactions on Image Processing2021309442. [百度学术] 

37

TONIONI ATOSI FPOGGI Met al. Real-time self-adaptive deep stereo[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long BeachIEEE2019195-204. [百度学术]