摘要
图神经网络,作为一种卓有成效的处理图的模型,已经被广泛地运用到诸如知识图谱、推荐系统、分子化学、交通网络等诸多领域,也是目前的研究热点。然而在图神经网络的训练过程中,随着网络层数和迭代次数的增加,每个节点的隐藏特征会趋向于收敛到同一个值,这就是阻碍图神经网络模型精度提高的过平滑问题。 首先,针对图神经网络模型的过平滑问题,本文提出了基于全局信息的二阶游走采样方法,GI-2WS算法。通过利用正点互信息矩阵与二阶游走采样,该算法既能捕获采样点的邻域信息,也能捕获图的全局信息。实验证明GI-2WS算法能够提升模型的分类准确率,如在Cora数据集上,比图卷积神经网络提高3.1%的精度。实验结果说明GI-2WS算法有着更灵活的捕获信息的能力,能同时利用图的全局信息和局部信息,有效缓解过平滑问题。 其次,本文又从模型训练的角度来解决过平滑问题。在分析研究Dropout方法对图神经网络的训练速度与精度的影响基础之上,本文提出了改进的Dropout方法,即W-Dropout方法。该方法对丢弃神经元后的网络输出进行了正则约束,降低了因为Dropout的随机性而给模型带来的不稳定性,提高了模型预测的准确性。实验证明W-Dropout方法能有效提高模型精度,如在Cora数据集上,比随机Dropout方法提高1.8%的精度。这说明W-Dropout方法能提高模型的分类准确率,有效地缓解过平滑问题。