推荐系统中的反学习方法:通过影响函数

摘要:推荐取消是一项新兴任务,旨在为用户从训练有素的推荐模型中删除无用的数据(例如某些历史行为)。现有方法通过在删除无用数据后完全或部分重新训练模型来处理取消请求。然而,由于完全重新训练的计算成本高和部分训练可能造成的性能损害高,这些方法是不切实际的。鉴于此,理想的推荐取消方法应该以更高效的方式获得类似于完全重新训练的模型,即实现完整、高效和无害的取消。在这项工作中,我们提出了基于影响函数的推荐取消(IFRU)框架,通过估计影响函数来高效地更新模型,而无需重新训练。鉴于最近的推荐模型同时使用历史数据构建优化损失和计算图(例如邻域聚合),IFRU共同估计了无用数据对优化损失的直接影响和对计算图的溢出影响,以实现完全取消。此外,我们提出了一种基于重要性的修剪算法来降低影响函数的成本。IFRU对于主流的可微分模型是无害和适用的。大量实验证明,与基于重新训练的方法相比,IFRU实现了超过250倍的加速,并且推荐性能与完全重新训练相当。

作者:Yang Zhang, Zhiyu Hu, Yimeng Bai, Fuli Feng, Jiancan Wu, Qifan Wang, Xiangnan He

论文ID:2307.02147

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-07-06

PDF 下载: 英文版 中文版pdf翻译中