XSimGCL:面向推荐系统的极简图对比学习

摘要:对比学习(CL)最近被证明对于提高推荐性能至关重要。基于CL的推荐模型的基本原则是确保从用户-物品二部图的不同图增强中得到的表示一致性。这种自监督方法允许从原始数据中提取通用特征,从而缓解数据稀疏性问题。尽管这种范式的有效性,其性能增益的因素尚未完全理解。本文提供了对CL对推荐影响的新见解。我们的研究结果表明,CL使模型能够学习更均匀分布的用户和物品表示,从而缓解了主导性偏差并促进了长尾物品。我们的分析还表明,先前被认为是必要的图增强在CL-based推荐中相对不可靠且意义有限。基于这些发现,我们提出了一种极其简单的图对比学习方法(XSimGCL)用于推荐,它放弃了无效的图增强,而是采用了一种简单而有效的基于噪声的嵌入增强来生成CL的视图。在四个大型且高度稀疏的基准数据集上进行的全面实验研究表明,尽管所提出的方法极其简单,它可以顺利调整学习表示的均匀性,并且在推荐准确性和训练效率方面明显优于其基于图增强的对比方法。代码和使用的数据集在https://github.com/Coder-Yu/SELFRec上发布。

作者:Junliang Yu, Xin Xia, Tong Chen, Lizhen Cui, Nguyen Quoc Viet Hung, Hongzhi Yin

论文ID:2209.02544

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-06-21

PDF 下载: 英文版 中文版pdf翻译中