高效推荐取消学习的选择性和协作影响函数
摘要:撤销权的最新规定极大地影响了推荐系统的运行方式,因为用户现在有权撤回他们的个人数据。除了在数据库中简单地删除目标数据外,还需要撤销相关数据的学习路径,例如模型中学习到的个人特征和偏好。现有的数据撤销方法主要是为分类任务中的通用机器学习模型设计的。本文首先确定了在推荐系统中直接应用现有的数据撤销方法存在的两个主要缺点,即(i)大规模推荐模型的效率不高,(ii)破坏了用户和项目之间的合作。为了解决上述问题,我们提出了一种基于选择性和协作影响函数(SCIF)的超高效推荐数据撤销方法。我们提出的方法可以(i)避免重新训练,这在大规模系统中是计算上禁止的,(ii)通过选择性更新用户嵌入来进一步提高效率,(iii)保持剩余用户和项目之间的合作。此外,为了评估数据撤销的完整性,我们定义了一个成员推理预言机(MIO),可以验证撤销的数据点是否在模型的训练集中,即一个数据点是否完全撤销。在两个基准数据集上进行的大量实验证明,我们提出的方法不仅可以大大提高数据撤销的效率,而且可以实现足够的数据撤销完整性。更重要的是,我们提出的方法在综合推荐指标方面优于最先进的数据撤销方法。
作者:Yuyuan Li, Chaochao Chen, Xiaolin Zheng, Yizhao Zhang, Biao Gong, Jun Wang
论文ID:2304.10199
分类:Information Retrieval
分类简称:cs.IR
提交时间:2023-04-21