基于学习的视频运动分割
视频分析是一项感知世界变化的任务,但通常情况下,视频中的大部分元素都没有太多变化,因此分割出移动物体成为视频分析中的关键一步。在当前的所有分割方法中,多数是基于单帧实例分割。在论文《Towards Segmenting Everything That Moves》中,研究者提出了首例基于学习的视频实例分割方法。其双流模型架构基于Mask R-CNN,同时还将光流作为输入来识别移动物体;之后将运动和外观提示结合起来,以纠正运动估计错误并捕获对象的全部范围。该模型的优点在于,之前的识别系统往往只能局限于训练它们的 N 个物体的“封闭世界”,而这个模型则几乎可以分割任何移动的物体。