在测试时具有性能保证的分布偏移缓解

摘要:针对于训练集和测试集之间的分布偏移,由于样本选择不当和有限的训练数据,Graph Neural Networks (GNNs) 的测试性能往往受到影响。现有方法通过增强GNNs对分布偏移的鲁棒性或减少分布偏移来缓解这个问题。然而,这两种方法都需要重新训练模型,当模型结构和参数是无法获取时,这变得不可行。为了解决这个挑战,我们提出了FR-GNN,一个通用的GNN框架,用于进行特征重构。FR-GNN构建了一个映射关系,将经过训练的GNN的输出和输入联系起来,以获得类别代表性嵌入,并使用这些嵌入来重构有标签节点的特征。然后将这些重构的特征结合到GNN的消息传递机制中,影响测试时无标签节点的预测。值得注意的是,重构的节点特征可以直接用于测试经过训练的模型,有效减少分布偏移并提高测试性能。这一显著成果是在不修改模型结构或参数的情况下实现的。我们为该框架的有效性提供了理论保证。此外,我们在各种公共数据集上进行了全面的实验。实验结果表明,与主流方法相比,FR-GNN具有更优异的性能。

作者:Rui Ding, Jielong Yang, Feng Ji, Xionghu Zhong, Linbo Xie

论文ID:2308.09259

分类:Machine Learning

分类简称:cs.LG

提交时间:2023-08-21

PDF 下载: 英文版 中文版pdf翻译中