首页|视频中稳定的跨场景前景分割

视频中稳定的跨场景前景分割

扫码查看
通过训练单个模型进行跨场景前景分割是一项具有挑战性的任务,特别是对于大规模视频监控,因为现有的模型通常严重依赖特定场景的信息.光流是描述前景目标的运动信息,但现有的光流机制方法只能表示瞬时特征,对开放的环境变化不具有鲁棒性.为了通过细粒度的运动特征表示并适应场景实现前景分割,一种间隔光流的新模块被设计出来,并使用注意力模块将运动特征融合到模型中.基于这种互补机制,可以构建实现运动和外观特征交互的跨模态动态特征滤波器.与现有方法相比,提出的模块倾向于在前景和背景区域的运动模式之间学习更多的语义信息,从而获得更好的跨场景适应性和鲁棒性.此外,由于数据集偏差问题,在跨场景前景分割任务中小目标的分割结果不佳,因此进一步设计了一个类内尺度的焦点损失函数来平衡前景目标的大小多样性.提出的模块可以即插即用到任意视频监控识别框架中,提高了跨场景前景分割结果的质量.
Stable Cross-scene Foreground Segmentation in Video

魏宗琪、梁栋

展开 >

南京航空航天大学 计算机学院,江苏 南京 211100

前景分割 双重模态 注意力 跨场景 自适应

国家自然科学基金

61772268

2022

计算机技术与发展
陕西省计算机学会

计算机技术与发展

CSTPCD
影响因子:0.621
ISSN:1673-629X
年,卷(期):2022.32(12)
  • 7