摘要
多目标位姿估计问题是无人驾驶、人机交互等领域的基础问题之一,但目前受采集设备限制,该领域数据大多集中在较小空间范围,这使得刚体位姿估计的实用价值受到限制.针对上述问题,提出了一种基于孪生空间的单目图像目标位姿一体化标注方法,并设计了一套位姿标注工具 LabelImg3D.首先,在孪生空间中放置同焦距的虚拟相机,并构建与真实目标等同的 3维模型;然后在孪生空间中放置真实空间拍摄图像(一次投影图),使其填充虚拟相机视场;最后对 3维模型进行平移旋转,使目标二次投影与一次投影在虚拟相机中保持一致,从而一体化得到目标位姿.基于该方法,开源了一套标注工具LabelImg3D(https://github.com/CongliangLi/LabelImg3D).通过在KITTI及P-LM数据集上的测试,实验结果表明,该方法对尺寸变化不明显的目标,平均位移精度可达 85%以上,旋转精度可达 90%以上,且该方法仅借助于单目相机,大大降低了目标3维位姿数据的采集难度.
基金项目
国家自然科学基金青年科学基金(62006026)
国家自然科学基金面上项目(62072053)
中央高校基本科研业务费专项(300102241202)
中央高校基本科研业务费专项(300102241304)
长安大学研究生科研创新实践项目(300103722035)