Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

北京大学DAIR实验室、腾讯机器学习平台部Angel Graph团队机器之心专栏

WWW 2022最佳论文出炉:北京大学团队获唯一最佳学生论文奖

来自北京大学 DAIR 实验室与腾讯机器学习平台部 Angel Graph 团队共同完成的研究斩获WWW 2022 唯一最佳学生论文奖(Best Student Paper Award)。

4 月 29 日晚,国际万维网顶会 WWW-2022(The Web Conference,简称 WWW)公布了本届会议的最佳论文。以北京大学计算机学院崔斌教授博士生张文涛为第一作者的论文 《可扩展的图神经结构搜索系统 (PaSca: a Graph Neural Architecture Search System under the Scalable Paradigm) 》斩获大会唯一的最佳学生论文奖(Best Student Paper Award)。

图片

图 1 获奖证书以及官方宣传

WWW(现改名为 TheWebConf)会议是计算机和互联网领域历史最为悠久同时最为权威的顶级学术会议之一,被中国计算机学会列为 A 类推荐国际学术会议。本次会议共收到 1822 篇论文投稿,最终录用 323 篇,录用率为 17.7%。本次会议仅评选出一篇最佳论文奖和一篇最佳学生论文奖,获奖论文首先被会议 “系统和基础设施” 方向推荐为最佳论文进入到大会最佳论文候选(共 11 篇),并在最终评比中获最佳学生论文奖。获奖论文是北京大学 DAIR 实验室与腾讯机器学习平台部 Angel Graph 团队共同完成,这是 WWW 成立 30 多年以来,中国学术研究机构第 2 次获得最佳学生论文奖。

图片


  • 论文链接:https://dl.acm.org/doi/10.1145/3485447.3511986

  • 系统链接:https://github.com/PKU-DAIR/SGL


1. 内容简介

神经网络模型在多个图任务上都取得了最佳效果,并受到了学术界和工业界的广泛关注。然而,现有的图神经网络系统有如下图所示的两个瓶颈。一方面,受限于单机场景下的存储和计算开销以及分布式场景下的通信开销,大多数基于消息传播机制 (Neural Message Passing,NMP) 的图神经网络模型可扩展性较低,很难直接用于现实生活中的大规模图数据。如图 2 所示,以典型的基于消息传播机制的 GraphSAGE 模型为例,分布式场景下的高昂通讯代价限制了图神经网络的可扩展性。此外,如图 3 所示,现有的图神经网络系统需要用户针对特定图数据和图任务编写代码和训练流程,然而设计网络结构也需要经验丰富的专家,建模成本很高。

图片

图 2 图神经网络的可扩展性瓶颈

图片

图 3 图神经网络的建模瓶颈

本论文研究了大规模图学习过程中面临的图模型可扩展性低以及建模门槛高两个问题,进而提出了一套能自动化建模超大规模图网络的可扩展图学习系统。具体来说,本文提出了一个新颖的图神经网络建模范式,并基于该范式设计了一个超过 15 万种网络结构的可扩展图网络设计空间,为图神经网络可扩展性的相关研究指明了一个新的方向和路线。此外,本文还实现并开源了一套多目标(如模型预测效果和资源占用)自动化图神经结构搜索系统,来支持更简单和更高效的大规模图学习。

2. 系统目标以及系统设计与方法

区别于现有的大规模图神经网络系统,本文提出的 PaSca 是一个端到端的系统。如图 4 所示,系统的输入有两部分组成:1)图数据 2)搜索目标(预测性能、内存占用、训练以及预测效率等)。给定这两个输入,系统能自动化地在预定义的可扩展图网络搜索空间进行高效地搜索,并输出能兼容多个搜索目标的可扩展图神经网络模型。

图片

图 4 系统目标概览

可扩展性图神经网络建模范式

图片

图 5 两种建模范式的对比

如图 5 所示,现有的图神经网络模型大都遵循如上图所示的消息传递机制。此外,为了兼容主流的图神经网络模型,相应的图神经网络系统也使用基于消息传递机制的系统抽象。然而,基于消息传播机制的图模型在每个 batch 训练过程中都需要进行聚合和更新操作。当图节点数据分布在不同机器上时,频繁的聚合操作会导致高昂的通信开销。区别于现有的消息传递机制,本文提出的 Scalable Paradigm(SGAP)将消息聚合操作和更新操作分离,定义了可扩展性图神经网络建模的新范式:前处理—训练—后处理,消息聚合操作只存在于前处理和后处理中,极大地降低了分布式场景下的通信开销。

自动化搜索系统

本文提出的自动化搜索系统包含两个模板,分别是搜索引擎以及分布式验证引擎。如图 6 所示,在每一次迭代中,搜索引擎都会从搜索空间中推荐相应的可扩展图神经网络结构,之后评估引擎训练图网络模型并返回模型的验证结果。

图片

图 6 PaSca 自动化搜索系统架构图

搜索引擎的主要目标是找到在 SGAP 建模范式下能同时兼容多个搜索目标的可扩展图神经网络结构。如表 1 所示,它首先定义了一个包含 15 万种不同网络结构的搜索空间,并基于贝叶斯优化来实现网络结构的推荐。在每次迭代中,推荐服务器会建模观测到的网络结构与优化目标值之间的关系,并推荐能最好地平衡多个优化目标的网络结构。最后,它基于验证引擎返回的观测结果来更新历史信息。

图片

表 1 基于 SGAP 的网络结构搜索空间

验证引擎的主要是用来高效评估被推荐的模型性能。对于前处理和后处理阶段,图数据聚合器会将图数据划分并存储到多台机器上。对于任意节点,当它的第 i - 阶消息计算完成之后,工作节点会拉取它的邻居信息并计算它下一阶的信息。在训练阶段,每个工作节点都可以用批训练的方式基于参数服务器来实现网络参数的更新。

3. 实验效果

本文在十个真实的数据集上进行实验,实验主要是为了说明:1)基于 SGAP 的图神经网络建模范式具有高可扩展性;2)PaSca 系统搜索出来的网络能很好地平衡多个搜索目标,并取得良好的预测性能。

图片

图 7 可扩展性分析

本文比较了基于 SGAP 范式建模的 PaSca-APPNP 模型以及基于 NMP 范式建模的 GraphSAGE 模型在分布式场景下的可扩展性。固定总的批处理大小并增加工作节点的数目,如图 7 所示,实验发现 PaSca-APPNP 能够获得更接近理想情况下的加速比。

图片

图 8 搜索结果的帕累托平面

如图 8 所示,实验展示了 PaSca 系统在 Cora 数据集的搜索结果的帕累托平面。本文从中挑选了 3 个代表性的模型,分别命名为 PaSca-V1, PaSca-V2 和 PaSca-V3。这些代表性模型能兼容不同的优化目标,比如 PaSca-V3 取得了最小的分类误差但是比 PaSca-V2 的预测时间更久。

图片

图 9 搜索结果的训练时间与预测性能对比

如图 9 所示,本文实验测试了搜索出来的代表性模型在实际 Industry 数据集上的预测性能和训练时间。可以看到 PaSca-V2 和 PaSca-V3 的预测效果都优于 JK-Net,但是训练时间更短。此外,如表 2 所示,本文在八个数据集上测试搜索出来的代表性模型的预测性能。实验发现,基于 SGAP 建模范式的图神经网络模型能够取得和其他范式下模型相当甚至更好的预测性能。另外,搜索出来的 PaSca-V3 始终取得了最好的模型预测性能。

图片

表 2 搜索结果的预测性能
    
4. 系统应用

Angel Graph 图计算团队目前负责论文成果在腾讯内部的技术落地。获奖论文的相关成果已实现于 Angel Graph 系统并部署于腾讯公司太极机器学习平台,广泛应用于金融风控和社交网络推荐等业务,代表性业务落地场景如下:1)微信公众号文章视频推荐场景点击率提升 1.6% 2)PCG 平台与内容事业群内容风控场景恶意识别覆盖率提升 10% 3)微信运营平台中心社交反欺诈场景欺诈账号识别覆盖率提升 20% 4)全民 K 歌个人主页用户相似推荐场景人均关注提升 2.397%。

5. 总结

神经网络模型在多个图任务上都取得了最佳效果,并受到了学术界和工业界的广泛关注。然而,大多数图神经网络模型可扩展性较低,很难直接用于现实生活中的大规模图数据。此外,设计针对特定图数据和图任务的神经网络结构也需要经验丰富的专家,建模成本很高。为此,本文提出了一个非常新颖的图神经网络建模范式,并基于该范式设计了一个可扩展的图神经结构搜索空间,为图神经网络可扩展性的相关研究指明了一个新的方向和路线。此外,本文还实现并开源了一套多目标(如模型预测效果和资源占用)自动化图神经结构搜索系统,搜索出来的代表性模型在预测性能、效率以及可扩展性方面都取得了较好的平衡。PaSca 系统能帮助研究者更好地探索可扩展的图神经网络结构,极大地促进了图神经网络从学术研究走向实际落地。
理论最佳学生论文奖WWW-2022
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

北京大学机构

北京大学创办于1898年,初名京师大学堂,是中国第一所国立综合性大学,也是当时中国最高教育行政机关。辛亥革命后,于1912年改为现名。2000年4月3日,北京大学与原北京医科大学合并,组建了新的北京大学。原北京医科大学的前身是国立北京医学专门学校,创建于1912年10月26日。20世纪三、四十年代,学校一度名为北平大学医学院,并于1946年7月并入北京大学。1952年在全国高校院系调整中,北京大学医学院脱离北京大学,独立为北京医学院。1985年更名为北京医科大学,1996年成为国家首批“211工程”重点支持的医科大学。两校合并进一步拓宽了北京大学的学科结构,为促进医学与人文社会科学及理科的结合,改革医学教育奠定了基础。

官网,http://www.pku.edu.cn/
推荐文章
暂无评论
暂无评论~