论文部分内容阅读
网络表示学习是复杂信息网络分析的基础,旨在将网络中的节点(节点级)或者整个网络(图级)表示为低维稠密的实值向量,以期应用于节点分类、链接预测、图分类等实际任务。近年来,对网络表示学习的研究受到了越来越多研究者的关注,其中,基于深度学习的图神经网络在网络表示学习领域发挥着越来越重要的作用。然而,高阶邻域信息不能被有效利用是大多数现有的图神经网络存在的问题。本文针对该问题进行了研究,并在节点级和图级网络表示学习任务中提出了相应的解决方案,主要研究内容总结为以下两点:(1)在节点表示学习任务中,提出了基于注意力机制的融合多阶邻域信息的图卷积网络。我们首先在注意力机制中使用不同的屏蔽矩阵,提取融合了不同阶邻域信息的节点表示;然后提出了一种融合机制,将节点的多种表示融合成一个统一的表示。不同阶邻域信息的使用是独立进行的,避免了堆叠多个图卷积层引起的过度平滑问题。具体来说,本文使用输入图的邻接矩阵的幂作为屏蔽矩阵,将注意力权值矩阵相应位置置为0,以提取不同阶邻域的局部信息;另外,在融合过程中使用动态路由算法自适应地确定不同的节点表示对最终节点表示的贡献,以学习更有效的节点表示。在引文网络数据集上的节点分类实验表明,我们提出的方法比目前较先进的网络表示学习模型有更高的分类准确率。(2)在图表示学习任务中,提出了一种基于注意力机制的多注意力池,综合考虑了节点的属性信息、图的局部和全局拓扑结构信息。具体来说,本文基于注意力机制,使用图卷积操作将不同阶邻居节点的属性信息和结构信息整合在一起为每个节点计算多个注意力分数,然后将这些注意力分数进行加权求和作为节点排序的依据进而对节点进行池化操作,最后将池化后保留下来的节点的表示融合成最终的图表示。在生物图数据集上的图分类实验表明,与现有的图池方法相比,我们的多注意力池取得了更优的表现。