通过图对比学习在满足差分隐私的联合学习环境中减轻性能损失
摘要:图学习模型在帮助研究人员探索图结构数据方面是不可或缺的工具。在学术界中,使用足够的训练数据来优化单个设备上的图模型是训练能力强大的图学习模型的典型方法。然而,由于隐私问题,在现实场景中这样做是不可行的。联邦学习通过引入各种隐私保护机制(如图边上的差分隐私)提供了解决这个限制的实用手段。然而,尽管联邦图学习中的差分隐私可以确保图中表示的敏感信息的安全,但通常会导致图学习模型的性能下降。在本文中,我们研究了如何在图边上实现差分隐私,并在实验中观察到了性能下降。此外,我们注意到图边上的差分隐私引入了扰动图相似性的噪声,而图对比学习中的图增强之一就是图相似性。受此启发,我们提出利用图对比学习来缓解由差分隐私导致的性能下降。我们在五个广泛使用的基准数据集上使用四种代表性图模型进行了大量实验,结果表明,对比学习确实减轻了模型的差分隐私导致的性能下降。
作者:Haoran Yang, Xiangyu Zhao, Muyang Li, Hongxu Chen, Guandong Xu
论文ID:2207.11836
分类:Machine Learning
分类简称:cs.LG
提交时间:2023-08-22