Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

ICCV 2017奖项公布:最大赢家何恺明获最佳论文,参与最佳学生论文

当地时间 10 月 22 日,两年一度的计算机视觉国际顶级会议 International Conference on Computer Vision(ICCV 2017)在意大利威尼斯开幕。今日,大会公布了本届 ICCV 的获奖论文,Facebook AI 研究员何恺明获得最佳论文奖,同时是最佳学生论文的作者之一。算上此前在 CVPR 2009、CVPR 2016 上的两篇「最佳论文」,何恺明现在已获得了四个最佳论文称号。

国际计算机视觉大会(ICCV)全称是 IEEE International Conference on Computer Vision,由 IEEE 主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议。但不同于 CVPR 与 ECCV,ICCV 在世界范围内每两年召开一次。本届 ICCV 会议在意大利城市威尼斯举办。

据统计,本届 ICCV 共收到 2143 篇论文投稿,其中 621 篇被选为大会论文,录用比例 29%。其中有 45 篇口头报告(Oral)和 56 篇亮点报告(Spotlight)。大会公开的信息显示,本届共有 3107名参会者。

今天上午,ICCV 2017 公布了本届大会获奖论文。Facebook 人工智能实验室何恺明等人论文《Mask R-CNN》获得最佳论文、Facebook 论文《Focal Loss for Dense Object Detection》获得最佳学生论文奖。

同时,大会还公布了终身成就奖、杰出研究奖、Everingham 团队奖等奖项。值得一提的是,Facebook 贾扬清带领的 Caffe 团队获得了 Everingham Prize。该奖项是授予那些对计算机视觉社区作出无私贡献的研究团队或研究员。

以下,机器之心将对此届获奖论文进行摘要介绍。


最佳论文(Marr Prize)

论文《Mask R-CNN》,第一作者何恺明。(参见 学界 | Facebook 新论文提出通用目标分割框架 Mask R-CNN:更简单更灵活表现更好

论文链接:https://arxiv.org/abs/1703.06870

我们提出了一个概念上简单、灵活和通用的用于目标实例分割(object instance segmentation)的框架。我们的方法能够有效地检测图像中的目标,同时还能为每个实例生成一个高质量的分割掩码(segmentation mask)。这个方面被称为 Mask R-CNN,是在 Faster R-CNN 上的扩展——在其已有的用于边界框识别的分支上添加了一个并行的用于预测目标掩码的分支。Mask R-CNN 的训练很简单,仅比 Faster R-CNN 多一点计算开销,运行速度为 5 fps。此外,Mask R-CNN 可以很容易泛化到其它任务,比如,让我们可以在同一个框架中估计人类的姿态。我们在 COCO 难题套件的所有 3 种任务(track)上都得到了最佳结果,其中包括实例分割、边界框目标检测和人物关键点检测(person keypoint detection)。没有使用其它的技巧,Mask R-CNN 的表现超越了在每个任务上所有已有的单个模型,包括 COCO 2016 挑战赛的获胜模型。我们希望我们的简单又有效的方法能成为一个坚实的基础,能帮助简化实例层面识别的未来研究。我们将会公开相关代码。

最佳学生论文

最佳学生论文的第一作者 Tsung-Yi Lin 博士毕业于康乃尔大学纽约理工学院,这是他在 Facebook 工作时进行的研究。Tsung-Yi Lin 最著名的工作是他在微软期间提出的 Coco 数据集(论文:《Microsoft coco: Common objects in context》)。目前,Lin 加入了 Google Brain 任研究科学家。

论文《Focal Loss for Dense Object Detection》

目前准确度最高的物体检测器是基于 R-CNN 影响的两步方法,其中一个分类器被用于处理稀疏的候选目标位置集合。相比之下,一步检测器可以应用在密集候选目标位置的检测中,具有更快捷、更简便的潜力,但此前一直没有匹配两步检测器的准确度。

在本论文中,我们探究了这种情况的原因。我们发现,在训练密集检测器时,极度前端-后端类不平衡是问题的主要原因。我们提出通过重塑标准交叉熵损失来解决这一类不平衡,以降低分配给分类范例的损失。我们提出的全新 Focal Loss 方法集中于稀疏、困难的样例中的训练,避免了训练过程中可能出现的大量负面因素。为了评估新损失函数的有效性,我们设计和训练一个简单的密度检测器——RetinaNet。我们的研究结果表明,当使用 Focal Loss 进行训练时,RetinaNet 可以达到此前一步检测器的速度,同时准确性高于业内最佳的两步检测器。

除了最佳论文与最佳学生论文,大会还公布了 Honorable Mentions、终身成就奖、杰出研究奖、Everingham Prize、Helmholtz 经典论文奖这些奖项的获奖论文与个人,分别如下:


Honorable Mentions

  • 论文:First-Person Activity Forecasting with Online Inverse Reinforcement Learning
  • 作者:N. Rhinehart, K. Kitani(卡耐基梅隆大学)
  • 地址:https://arxiv.org/abs/1612.07796
  • 论文:Open Set Domain Adaptation
  • 作者:Pau Panareda Busto、Juergen Gall
  • 地址:http://pages.iai.uni-bonn.de/gall_juergen/download/jgall_opensetdomain_iccv17.pdf
  • 论文:Globally-Optimal Inlier Set Maximisation for Simultaneous Camera Pose and Feature Correspondence
  • 作者:Dylan Campbell、Lars Petersson、Laurent Kneip、Hongdong Li
  • 地址:http://users.cecs.anu.edu.au/~hongdong/ICCV_17_2218.pdf

终身成就奖

本届 ICCV 的终身成就奖授予 MIT 教授 Tomaso Poggio。Tomaso Poggio 是麻省理工学院人工智能实验室脑与认知科学系的尤金•麦克德莫特讲座教授,同时也是该院生物和计算机学习中心的联席主任,同时也是 MIT 计算机科学与人工智能实验室(CSAIL)成员。Poggio 于 1981 年开始在麻省理工学院任教,此前他曾在德国图宾根马克思普朗克研究所的生物控制论研究室工作过十年时间。1970 年,他获得热那亚大学的博士学位。Poggio 是意大利科学院的外籍院士,也是美国艺术与科学研究院的研究员。

杰出研究奖

杰出研究奖(Distinguished Researcher Award)授予 ETH Zentrum 教授 Luc Van Gool 与 Facebook 研究科学家、计算摄影学团队创始人 Richard Szeliski。

Everingham 团队奖

该奖项主要是为了奖励那些对计算机视觉社区作出无私贡献的研究团队或研究员。ICCV 2017 的 Everingham Prize 授予贾扬清领衔的 Caffe 团队,以及 ICVSS 组织者团队。


Helmholtz 经典论文奖

该奖项主要由 ICCV 的 PAMITC 委员会每年表彰十年前对计算机视觉研究有重大影响的 ICCV 论文。

入门ICCV 2017会议理论论文Facebook何恺明
1
暂无评论
暂无评论~