针对联邦在线学习排序系统的无目标中毒攻击和防御方法的分析

摘要:联邦在线学习排序(FOLTR)旨在保护用户隐私,不共享其可搜索的数据和搜索交互,同时确保高效的搜索效果,特别是在个别用户训练数据和交互很少的情况下。为此,FOLTR通过在线方式训练排序模型——即利用用户与搜索系统(查询、点击)的交互而不是标签——并通过联邦方式训练模型实例在每个用户设备上的私有数据上,然后在联邦中共享模型更新而不是数据。现有的FOLTR方法建立在联邦学习的进展基础之上。 虽然已经证明联邦学习方法可以在分布式环境中训练机器学习模型而无需共享数据,但它们可能容易受到针对系统安全或整体效果的攻击。 在本文中,我们考虑对旨在破坏FOLTR系统搜索效果的攻击。在这个范围内,我们尝试并分析数据和模型污染攻击方法,展示它们对FOLTR搜索效果的影响。我们还探索了设计用于抵御FOLTR系统攻击的防御方法的有效性。我们对FOLTR系统的攻击和防御方法的影响有所贡献,并确定了影响它们有效性的关键因素。

作者:Shuyi Wang, Guido Zuccon

论文ID:2307.01565

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-07-06

PDF 下载: 英文版 中文版pdf翻译中