面向图卷积网络的数据增广算法及其在图节点分类中的应用文献综述

 2022-11-22 17:19:55

文献综述

图卷积神经网络(GCN)是当前人工智能技术中重要研究方向之一。在过去的十年中,神经网络取得了巨大的成功。 但是,只能使用常规或欧几里得数据来实现神经网络的早期变体,而现实世界中的许多数据具有非欧几里得的底层图形结构。 数据结构的不规则性导致了图神经网络的最新发展。 在过去的几年中,正在开发图神经网络的各种变体,其中之一就是图卷积网络(GCN)。 GCN也被视为基本的Graph Neural Networks变体之一。

在以图像为代表的欧式空间中,结点的邻居数量是固定的,而在图的非欧空间中,结点的邻居数目并不确定,而欧式空间中的卷积操作实际上是用固定大小可学习的卷积核来抽取像素的特征,因此传统的卷积核不能直接用于图上结点的特征抽取。因此图卷积神经网络设计原则则出现了两条路径:一是将非欧空间转换为欧式空间;二是使用可处理变长邻居结点的卷积核在图上抽取特征。

图卷积神经网络的架构为:输入图后,第一个卷积层中,对每个结点的邻居都进行一次卷积操作,并用卷积结果更新该结点,然后经过激活函数再进入一层卷积层与一层激活函数;反复上述过程,直到层数达到预期深度。图卷积神经网络主要有两类,一类基于空域,另一类基于频域。基于空域的图卷积直接将卷积操作定义在每个结点的连接关系上,相当于直接在图片的像素点上进行卷积,从设计理念上看,空域卷积与深度学习中的卷积的应用方式类似,其核心在于聚合邻居结点的信息;而基于频域的图卷积则是先将图进行相应傅里叶变换后,再进行卷积。它主要利用的是图傅里叶变换,即利用图的拉普拉斯矩阵导出其频域上的拉普拉斯算子,再类比频域上的欧式空间中的卷积,导出图卷积的公式。

消息传递网络(MPNN)[1] 是由Google科学家提出的一种模型。严格意义上讲,MPNN不是一种具体的模型,而是一种空域卷积的形式化框架。它将空域卷积分解为两个过程:消息传递与状态更新操作,分别由对应的函数完成。MPNN很好地概括了空域卷积的过程,但定义在这个框架下的所有模型都有一个共同的缺陷:卷积操作针对的对象是整张图,也就意味着要将所有结点放入内存/显存中,才能进行卷积操作。但对实际场景中的大规模图而言,整个图上的卷积操作并不现实。GraphSage[2]提出的动机之一就是解决这个问题。区别于传统的全图卷积,GraphSage利用采样(Sample)部分结点的方式进行学习,即使不需要整张图同时卷积,GraphSage仍然需要聚合邻居结点的信息,即论文中定义的aggregate的操作。这种操作类似于MPNN中的消息传递过程。GraphSage中的采样过程分为三步:首先在图中随机采样若干个结点,结点数为传统任务中的batch_size。对于每个结点,随机选择固定数目的邻居结点构成进行卷积操作的图;接下来将邻居结点的信息通过aggregate函数聚合起来更新刚才采样的结点;最后计算采样结点处的损失。如果是无监督任务,我们希望图上邻居结点的编码相似;如果是监督任务,即可根据具体结点的任务标签计算损失。

第二种处理图卷积操作的方式即将图结构转换为序列结构,从而直接利用卷积神经网络在转化成的序列结构上做卷积,PATCHY-SAN[3]就是以这种方式为出发点的算法。PATCHY-SAN 通过三个步骤解决问题:首先在图结构上进行结点选择(Node Squenece Selection),通过一些人为定义的规则为每个结点指定一个在图中的排序。在完成排序后,取出前固定数目的结点作为整个图的代表;然后进行邻居结点构造(Neighborhood graph construction),最后完成图规范化(Graph Normalization)。

对于频域卷积网络(Spectral CNN)而言,频域卷积的前提条件是图必须是无向图,那么L就是对称矩阵。所以它可以按照如下公式分解:

那么,根据上面卷积与傅里叶结合的变换公式,图上频域卷积的公式便可以写成

。如果在整个图的N个结点上一起做卷积,就可以得到整张图上的卷积如下:

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文开题文献,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。