为了实现高精度的区域级多模态理解,本文提出了一种动态分辨率方案来模拟人类视觉认知系统。
本文作者来自于中国科学院大学LAMP实验室,其中第一作者赵毓钟是中国科学院大学的2023级博士生,共同一作刘峰是中国科学院大学2020级直博生。他们的主要研究方向是视觉语言模型和视觉目标感知。
论文标题:DynRefer: Delving into Region-level Multi-modality Tasks via Dynamic Resolution 论文链接:https://arxiv.org/abs/2405.16071 论文代码:https://github.com/callsys/DynRefer
其中表示第 i 个视图的插值系数,表示第 i 个视图,pHASH (・) 表示感知图像哈希函数,表示异或操作。为了从全局视角比较视图的信息,我们利用 "pHASH (・)" 函数将视图从空间域转换到频域,然后编码成哈希码。对于这一项,我们减少上下文丰富视图的权重,以避免引入过多冗余信息。
Line 1-6:随机动态多视图要优于固定视图。 Line 6-10:通过最大化信息选择视图优于随机选择视图。 Line 10-13:多任务训练可以学习得到更好的区域表征。