Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

陈萍、蛋酱报道

微软工程师用PyTorch实现图注意力网络,可视化效果惊艳

近日,一个关于图注意力网络可视化的项目吸引了大批研究人员的兴趣,上线仅仅一天,收获 200+ 星。该项目是关于用 PyTorch 实现的图注意力网络(GAT),包括易于理解的可视化。

项目地址:https://github.com/gordicaleksa/pytorch-GAT

在正式介绍项目之前,先提一下图神经网络(GNN)。GNN 是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN 最近已成为一种广泛应用的图分析方法。现已广泛应用于计算生物学、计算药理学、推荐系统等。

GNN 把深度学习应用到图结构 (Graph) 中,其中的图卷积网络 GCN 可以在 Graph 上进行卷积操作,但是 GCN 存在一些缺陷。因此,Bengio 团队在三年前提出了图注意力网络(GAT,Graph Attention Network) ,旨在解决 GCN 存在的问题。

GAT 是空间(卷积)GNN 的代表。由于 CNNs 在计算机视觉领域取得了巨大的成功,研究人员决定将其推广到图形上,因此 GAT 应运而生。

现在,有人用 PyTorch 实现了 GAT 可视化。我们来看看该项目是如何实现的。

可视化

Cora 可视化

说到 GNN,就不得不介绍一下 Cora 数据集。Cora 数据集由许多机器学习论文组成,是近年来图深度学习很喜欢使用的数据集。Cora 中的节点代表研究论文,链接是这些论文之间的引用。项目作者添加了一个用于可视化 Cora 和进行基本网络分析的实用程序。Cora 如下图所示:

节点大小对应于其等级(即进出边的数量)。边的粗细大致对应于边的「popular」或「连接」程度。以下是显示 Cora 上等级(进出边的数量)分布的图:

进和出的等级图是一样的,因为处理的是无向图。在底部的图(等级分布)上,我们可以看到一个有趣的峰值发生在 [2,4] 范围内。这意味着多数节点有少量的边,但是有 1 个节点有 169 条边(绿色大节点)。

注意力可视化

有了一个训练好的 GAT 模型以后,我们就可以将某些节点所学的注意力可视化。节点利用注意力来决定如何聚合周围的节点,如下图所示:

这是 Cora 节点中边数最多的节点之一(引用)。颜色表示同一类的节点。

熵直方图

另一种理解 GAT 没有在 Cora 上学习注意力模式 (即它在学习常量注意力) 的方法是,将节点邻域的注意力权重视为概率分布,计算熵,并在每个节点邻域积累信息。

我们希望 GAT 的注意力分布有偏差。你可以看到橙色的直方图是理想均匀分布的样子,而浅蓝色的是学习后的分布,它们是完全一样的。

分析 Cora 嵌入空间 (t-SNE)

GAT 的输出张量为 shape=(2708,7),其中 2708 是 Cora 中的节点数,7 是类数。用 t-SNE 把这些 7 维向量投影成 2D,得到:

使用方法

方法 1:Jupyter Notebook

只需从 Anaconda 控制台运行 Jupyter Notebook,它将在你的默认浏览器中打开 session。打开 The Annotated GAT.ipynb 即可开始。

注意,如果你得到了 DLL load failed while importing win32api: The specified module could not be found,只需要 pip uninstall pywin32,或者 pip install pywin32、onda install pywin32。

方法 2:使用你选择的 IDE

如果使用自己选择的 IDE,只需要将 Python 环境和设置部分连接起来。

训练 GAT

在 Cora 上训练 GAT 所需的一切都已经设置好了,运行时只需调用 python training_script.py

此外,你还可以:
  • 添加 --should_visualize - 以可视化你的图形数据

  • 在数据的测试部分添加 --should_test - 以评估 GAT

  • 添加 --enable_tensorboard - 开始保存度量标准(准确率、损失)

代码部分的注释很完善,因此你可以了解到训练本身是如何运行的。

该脚本将:
  • 将 checkpoint* .pth 模型转储到 models/checkpoints/

  • 将 final* .pth 模型转储到 models/binaries/

  • 将度量标准保存到中 runs/,只需 tensorboard --logdir=runs 在 Anaconda 中运行即可将其可视化

  • 定期将一些训练元数据写入控制台

通过 tensorboard --logdir=runs 在控制台中调用,并将 http://localhost:6006/URL 粘贴到浏览器中,可以在训练过程中将度量标准可视化:

可视化工具

如果要可视化 t-SNE 嵌入,请注意或嵌入该 visualize_gat_properties 函数的注释,并设置 visualization_type 为:
  • VisualizationType.ATTENTION - 如果希望可视化节点附近的注意力

  • VisualizationType.EMBEDDING - 如果希望可视化嵌入(通过 t-SNE)

  • VisualizationType.ENTROPY - 如果想可视化熵直方图

然后,你就得到了一张优秀的可视化效果图(VisualizationType.ATTENTION 可选):

硬件需求

GAT 不需要那种很强的硬件资源,尤其是如果你只想运行 Cora 的话,有 2GB 以上的 GPU 就可以了。
  • 在 RTX 2080 GPU 上训练 GAT 大约需要 10 秒;

  • 保留 1.5 GB 的 VRAM 内存(PyTorch 的缓存开销,为实际张量分配的内存少得多);

  • 模型本身只有 365 KB。

如果你想了解更多关于 GAT 的内容,请点击下方视频:

项目作者介绍

该项目作者 AleksaGordić 是一位微软的软件和机器学习工程师,研究兴趣包括计算机视觉、机器学习和数字图像处理领域。他在塞尔维亚的贝尔格莱德获得了电气工程硕士学位,业余时间是一个机器学习项目、 Android / 网页 app、树莓派项目的创造爱好者。在他的 GitHub 主页,你还能看到更多有关 Pytorch 实现的项目。
入门图注意力网络可视化PyTorch
2
相关数据
图神经网络技术

图网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。生成的节点嵌入向量可作为任何可微预测层的输入,并用于节点分类或预测节点之间的连接,完整的模型可以通过端到端的方式训练。

图卷积网络技术

假设有一张图,要做分类,传统方法需要手动提取一些特征,比如纹理啊,颜色啊,或者一些更高级的特征。然后再把这些特征放到像随机森林等分类器,给到一个输出标签,告诉它是哪个类别。而深度学习是输入一张图,经过神经网络,直接输出一个标签。特征提取和分类一步到位,避免了手工提取特征或者人工规则,从原始数据中自动化地去提取特征,是一种端到端(end-to-end)的学习。相较于传统的方法,深度学习能够学习到更高效的特征与模式。

推荐文章
暂无评论
暂无评论~