计算机应用与软件2024,Vol.41Issue(4) :135-141,199.DOI:10.3969/j.issn.1000-386x.2024.04.021

PVS-CNN:子流稀疏卷积优化的Point-Voxel CNN

PVS-CNN:POINT-VOXEL CNN OPTIMIZED BY SUBMANIFOLD SPARSE CONVOLUTION

孙亚兰 林云汉
计算机应用与软件2024,Vol.41Issue(4) :135-141,199.DOI:10.3969/j.issn.1000-386x.2024.04.021

PVS-CNN:子流稀疏卷积优化的Point-Voxel CNN

PVS-CNN:POINT-VOXEL CNN OPTIMIZED BY SUBMANIFOLD SPARSE CONVOLUTION

孙亚兰 1林云汉2
扫码查看

作者信息

  • 1. 武汉科技大学计算机科学与技术学院 湖北武汉 430065
  • 2. 智能信息处理与实时工业系统湖北省重点实验室 湖北武汉 430065
  • 折叠

摘要

针对经典的三维卷积网络在模型较大的场景上分割和检测的效率低和内存占用大的问题,提出PVS-CNN网络框架,通过更新哈希表和特征稀疏矩阵的方式实现了效率高且占用低的三维卷积,引用子流稀疏卷积改进PV-Conv.将PVS-CNN在ShapeNet和S3DIS数据集上进行评估,实验结果表明,所提出的PVS-CNN比PVC-NN快3.6倍,GPU内存占用仅为PVCNN的0.55倍.在目标检测上,与F-PVCNN相比,PVS-CNN在时间效率和检测精度上全面优于F-PVCNN.

Abstract

In order to solve the problem of low efficiency and large GPU memory usage in segmentation and detection of classic 3D convolutional networks in scenes with larger models,this paper proposes the PVS-CNN network framework,which achieves 3D convolution with high efficiency and low GPU occupancy by updating the Hash table and feature sparse matrix,and uses submanifold sparse convolution to improve PV-Conv.The PVS-CNN was evaluated on ShapeNet and S3DIS dataset.The experimental results show that the proposed PVS-CNN is 3.6 times faster than PVCNN and the GPU memory usage is only 0.55 times that of PVCNN.Compared with F-PVCNN in object detection,the proposed PVS-CNN is better than F-PVCNN in terms of time efficiency and detection accuracy.

关键词

三维点云/效率/内存占用/分割/目标检测/子流稀疏卷积

Key words

Three-dimensional point cloud/Efficiency/GPU memory usage/Segmentation/Object detection/Submanifold sparse convolution

引用本文复制引用

基金项目

湖北省自然科学基金青年项目(2020CFB116)

国家自然科学基金项目(62073249)

湖北省教育厅科学研究计划中青年人才项目(Q20191108)

湖北省技术创新专项重大项目(2019AAA071)

出版年

2024
计算机应用与软件
上海市计算技术研究所 上海计算机软件技术开发中心

计算机应用与软件

CSTPCD北大核心
影响因子:0.615
ISSN:1000-386X
参考文献量25
段落导航相关论文