小心肝作者

ICML 2020 那些不容忽视的高产华人学者

ICML2020 正于线上举办中,本届会议共提交 4990 篇论文,投稿数量再创新高,而最终接收论文 1088 篇,接收率 21.8%。与往年相比,接收率逐年走低。

清华大学 AMiner 团队开发的 ICML 2020 会议系统,对 ICML 2020 论文、作者、华人学者、一作华人学生、论文 PPT 和视频等多维分析服务。通过论文看作者、通过作者找论文,并融合论文解读、相关论文推荐、对作者信息的大数据分析,可以帮助用户掌握当前深度学习的最前沿研究,洞察相关技术的发展趋势。

通过 AMiner 系统中的华人栏,我们来看看本次会议中表现亮眼的华人有哪些呢?

ICML 上的华人明星

Percy Liang 本次共有 8 篇文章入选,位居华人贡献榜首位。

Percy Liang 是斯坦福大学计算机科学副教授(麻省理工学士,2004 年;加州大学伯克利分校博士,2011 年)。他的两个研究目标是(i)使机器学习更加健壮、公平和可解释;以及(ii)使计算机更易于通过自然语言进行交流。他的奖项包括总统科学家和工程师早期职业奖(2019 年)、IJCAI计算机和思想奖(2016 年)、NSF职业奖(2016 年)、斯隆研究奖学金(2015 年)和微软研究学院奖学金(2014 年),此外,他还是 ICML2017 年最佳论文奖得主。

入选论文:
1 Understanding and Mitigating the Tradeoff Between Robustness and Accuracy
2 Understanding Self-Training for Gradual Domain Adaptation
3 Feature Noise Induces Loss Discrepancy Across Groups
4 Robustness to Spurious Correlations via Human Annotations
5 Adversarial Mutual Information for Text Generation
6 Concept Bottleneck Models
7 Overparameterization hurts worst-group accuracy with spurious correlations
8 DrRepair: A Self-Supervised, Graph-Attentional Approach to Repairing Programs from Diagnostic Feedback

Zhaoran Wang 以 7 篇文章入选本次 ICML 会议位居华人贡献榜第二。

Zhaoran Wang 是美国西北大学工程与管理系的助理教授,他在普林斯顿大学获得了博士学位。研究兴趣为统计优化与机器学习的交互。特别有兴趣了解统计准确性和计算工作量之间的权衡,以及为统计学习中的非凸问题建立可证明的保证。

入选论文:
1 Semiparametric Nonlinear Bipartite Graph Representation Learning with Provable Guarantees
2 Provably Efficient Exploration in Policy Optimization
3 Deep Reinforcement Learning with Smooth Policy
4 Breaking the Curse of Many Agents: Provable Mean Embedding QQQ-Iteration for Mean-Field Reinforcement Learning
5 Generative Adversarial Imitation Learning with Neural Network Parameterization: Global Optimality and Convergence Rate
6 Computational and Statistical Tradeoffs in Inferring Combinatorial Structures of Ising Model
7 On the Global Optimality of Model-Agnostic Meta-Learning

Chi Jin(金驰)以 6 篇论文入选位居华人贡献榜第3位。

Chi Jin 现任普林斯顿大学电气工程助理教授。他在加州大学伯克利分校获得计算机科学博士学位,由 Michael I. Jordan 担任导师。在此之前,他在北京大学获得了物理学学士学位。研究兴趣在于机器学习、统计和优化。

入选论文:
1 On Gradient Descent Ascent for Nonconvex-Concave Minimax Problems
2 What is Local Optimality in Nonconvex-Nonconcave Minimax Optimization?
3 Provably Efficient Exploration in Policy Optimization
4 Learning Adversarial Markov Decision Processes with Bandit Feedback and Unknown Transition
5 Reward-Free Exploration for Reinforcement Learning
6 Provable Self-Play Algorithms for Competitive Reinforcement Learning

Zhuoran Yang(杨卓然)以 6 篇文章入选与 Chi Jin(金驰)并列位于华人贡献榜第 3。

Zhuoran Yang(杨卓然)是普林斯顿大学运筹学与金融工程的一名博士生,此前已在清华大学获得了数学学士学位。他也是本次会议入选超过 5 篇文章的华人作者中唯一一名博士生。研究兴趣在于机器学习、统计和优化之间的交互。研究的主要目标是设计有效的学习算法,以解决强化学习和随机博弈中出现的大规模决策问题。

入选论文:
1 Semiparametric Nonlinear Bipartite Graph Representation Learning with Provable Guarantees
2 Provably Efficient Exploration in Policy Optimization
3 Breaking the Curse of Many Agents: Provable Mean Embedding QQQ-Iteration for Mean-Field Reinforcement Learning
4 Generative Adversarial Imitation Learning with Neural Network Parameterization: Global Optimality and Convergence Rate
5 Robust One-Bit Recovery via ReLU Generative Networks: Near Optimal Statistical Rate and Global Landscape Analysis
6 On the Global Optimality of Model-Agnostic Meta-Learning

Heng Huang(黄恒)以 5 篇文章入选位居华人贡献榜第 4。

Heng Huang(黄恒)在达特茅斯学院获得计算机科学博士学位,在上海交通大学获得硕士和学士学位。他是匹兹堡大学(universityofpittsburgh)计算机工程 johna.Jurenko 特聘教授。研究兴趣为机器学习,数据挖掘,大数据计算,NLP 生物信息学,神经信息学,精密医学,健康信息学计算机视觉、医学图像分析。

入选论文:
1 Sparse Shrunk Additive Models
2 Fast OSCAR and OWL with Safe Screening Rules
3 Momentum-Based Policy Gradient Methods
4 Can Stochastic Zeroth-Order Frank-Wolfe Method Converge Faster for Non-Convex Problems
5 Adversarial Nonnegative Matrix Factorization

ICML 涌现的学术新星

华人学生在本次的会议表现同样亮眼,有第一作者身份的华人学生在本次会议上发表两篇论文及以上的有 15 人,其中来自哥伦比亚大学的博士生 Yunhao (Robin) Tang 有 4 篇文章入选,位居华人一作学生贡献榜第一,且在 4 篇入选论文中,他有两篇是第一作者。发表了 3 篇论文的博士生 Hanrui Zhang 和 Jiaming Song 分别来自杜克大学与斯坦福大学,他们都仅有一篇论文作为第一作者。

以下同学有 2 篇论文入选:

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
产业ICML 2020
暂无评论
暂无评论~