斯坦福&Adobe的研究者提出全新的通用深度网络架构CPNet
近日,来自斯坦福和 Adobe 的研究人员,受到点云上深度学习方法的启发,提出了全新的通用的深度网络架构 CPNet,用于学习视频中图片之间的长程对应关系,来解决现有方法在处理视频长程运动中的局限性。CPNet 通过寻找对应的表征来学习视频中图片之间稀疏且不规则的对应模式,并且可以融合进现有的卷积神经网络架构中。研究人员在三个视频分类数据集上进行了实验,结果表明,CPNet 在性能上取得了较大的突破。该研究论文《Learning Video Representations from Correspondence Proposals》获 CVPR 2019 oral。