通过异常检测识别联邦学习中的后门攻击

摘要:联邦学习近年来得到了越来越多的采用,以应对隐私数据日益增长的监管需求。然而,联邦学习的不透明本地训练过程也引发了对模型忠诚度的关注。例如,研究表明,联邦学习容易受到后门攻击的影响,即受到入侵参与者可以在后门触发器存在的情况下悄然修改模型行为。本文提出了一种有效的防御方法,通过检查共享模型更新来防御攻击。我们首先观察到后门的嵌入会影响参与者的本地模型权重,表现为模型梯度的大小和方向的可区别的差异。我们通过研究模型梯度子集的统计分布,实现对后门的可靠识别。具体来说,我们将模型梯度分割成表示模型参数小部分的片段向量。然后,我们使用异常检测来定位分布不均匀的片段并剪枝出现最多异常值的参与者。我们将这些发现体现在一种新颖的防御方法ARIBA中。通过广泛的分析,我们证明了我们提出的方法在对任务效用影响最小的情况下有效地缓解了最先进的后门攻击。

作者:Yuxi Mi, Yiheng Sun, Jihong Guan, Shuigeng Zhou

论文ID:2202.04311

分类:Artificial Intelligence

分类简称:cs.AI

提交时间:2023-08-24

PDF 下载: 英文版 中文版pdf翻译中