图卷积神经网络(GCN)最近已成为众多分析任务最强大的工具之一,从社交网络和自然语言处理到生物化学领域,这要归功于GCN对复杂关系的处理能力。目前,绝大多数GCN都使用邻域聚合框架来学习连续紧凑的向量,然后执行池化操作得到图嵌入用于图分类任务。这些方法在图分类任务中有两个缺点:(1)当只使用最大的子图结构(k-hop neighbor)用于邻域聚合,在图卷积中会丢失大量信息; (2)使用简单的平均/总和或最大池化,这损失了每个节点的特征和节点之间的关系信息。在本文中,我们提出了一种新的框架,称为双重注意图卷积网络(DAGCN)来解决上述问题。DAGCN通过新的注意力图卷积层自动学习不同hops邻居节点的重要性,然后采用第二注意力组件,自注意力池化层,从矩阵图嵌入的各个方面推广图表示。DAGCN以端到端的方式训练模型完成图分类任务。论文将DAGCN与目前一些方法进行了比较。实验结果表明,DAGCN框架不仅优于其他基准模型,而且实现了更好的收敛速度。
我们研究了Relational Graph Attention Networks(关系图注意力网络),这是一类扩展non-relational图注意力机制以结合关系信息的模型,然后将这些方法应用于更广泛的问题。论文对这些模型进行了比较全面评估,并与基准模型进行了比较。为了提供有意义的比较,论文重新训练了关系图卷积网络,关系图注意力网络,并在相同条件下做了评估。发现关系图注意力网络的性能比预期的要差。论文提供了有关原因的见解,并建议对评估策略进行修改,以及调查未来工作的方向。
03
最近,掀起一股对图表示学习的浪潮。然而,当前的动态图学习方法在建模节点之间的时间,多关系和并发交互方面缺乏原则性的方法。这对时态知识图推理的任务尤其有问题,其目标随着时间推移是预测看不见的实体关系(即事件)。论文提出了Recurrent Event Network——一种用于建模复杂事件序列的架构。由一个循环事件编码器和一个邻域聚合器组成。事件编码器使用RNN从历史实体交互中捕获(主体,关系)特定模式; 邻居聚合器总结了每个时间戳内的并发交互。输出层设计用于预测即将发生的多关系事件。
04
视觉对话虽然取得了一些进展,但是一些细节问题上仍然存在挑战。注意力机制证明了其在视觉对话中提取细节问题的能力,并且由于其可解释性和有效性而为视觉对话提供了可信任的框架。然而,数据多种utility的出现对现有的注意力技术提出了挑战。本文是为了解决了这个问题,提出了一种用于视觉对话的通用注意力机制,为此,我们设计了基于注意力机制的factor graph,它可以用于任意数量的utility表示。论文还证明了该方法在各种基准数据集上的适用性。
05
在许多应用中都可以找到Spherical data 。通过将离散球体建模为graph,可以适应非均匀分布,部分和变化的采样。此外,图卷积在计算上比spherical 卷积更有效。由于需要利用等效性来利用旋转对称性,我们将讨论如何使用Defferrard等人介绍的图神经网络来逼近旋转等效。实验表明旋转不变学习问题具有良好的性能。