首页|多尺度代价体信息共享的多视角立体重建网络

多尺度代价体信息共享的多视角立体重建网络

扫码查看
目的 多视角立体重建方法是3维视觉技术中的重要部分.相较于传统方法,基于深度学习的方法大幅减少重建所需时间,同时在重建完整性上也有所提升.然而,现有方法的特征提取效果一般和代价体之间的关联性较差,使得重建结果仍有可以提升的空间.针对以上问题,本文提出了一种双U-Net特征提取的多尺度代价体信息共享的多视角立体重建网络模型.方法 为了获得输入图像更加完整和准确的特征信息,设计了一个双U-Net特征提取模块,同时按照3个不同尺度构成由粗到细的级联结构输出特征;在代价体正则化阶段,设计了一个多尺度代价体信息共享的预处理模块,对小尺度代价体内的信息进行分离并传给下层代价体进行融合,由粗到细地进行深度图估计,使重建精度和完整度有大幅提升.结果 实验在DTU(Technical University of Denmark)数据集上与CasMVSNet相比,在准确度误差、完整度误差和整体性误差3个主要指标上分别提升约16.2%,6.5%和11.5%,相较于其他基于深度学习的方法更是有大幅度提升,并且在其他几个次要指标上也均有不同程度的提升.结论 提出的双U-Net提取多尺度代价体信息共享的多视角立体重建网络在特征提取和代价体正则化阶段均取得了效果,在重建精度上相比于原模型和其他方法都有一定的提升,验证了该方法的真实有效.
Multi-scale cost volumes information sharing based multi-view stereo reconstructed model

刘万军、王俊恺、曲海成

展开 >

辽宁工程技术大学软件学院,葫芦岛 125105

3维重建 深度学习 多视角立体网络 双U-Net网络 特征提取 代价体信息共享

42071351LJ2019JL010LNTU20TD-23

2022

中国图象图形学报
中国科学院遥感应用研究所,中国图象图形学学会 ,北京应用物理与计算数学研究所

中国图象图形学报

CSTPCDCSCD北大核心
影响因子:1.111
ISSN:1006-8961
年,卷(期):2022.27(11)
  • 4
  • 2