扩散推荐模型

摘要:生成模型,如生成对抗网络(GANs)和变分自编码器(VAEs),被广泛用于建模用户交互的生成过程。然而,这些生成模型存在内在局限性,如GANs的不稳定性和VAEs的受限表示能力。这些限制阻碍了准确建模复杂用户交互生成过程的能力,如多种干扰因素引起的嘈杂交互。鉴于扩散模型(DMs)在图像合成方面相对传统生成模型的优势,我们提出了一种新颖的扩散推荐模型(称为DiffRec),以一种去噪的方式学习生成过程。为了保留用户交互的个性化信息,DiffRec减少了添加的噪声,避免了将用户交互破坏为纯噪声,类似于图像合成。此外,我们扩展了传统DMs来解决实际推荐系统中的独特挑战:大规模物品预测的高资源成本和用户偏好的时间移位。为此,我们提出了DiffRec的两个扩展:L-DiffRec对物品进行维度压缩的聚类,并在潜空间中进行扩散过程;T-DiffRec根据交互时间戳重新加权用户交互以编码时间信息。我们在三个数据集上进行了广泛的实验,包括多个设置(如干净训练、嘈杂训练和时间训练)。实证结果和深入分析验证了DiffRec及其两个扩展在竞争基线上的优越性。

作者:Wenjie Wang, Yiyan Xu, Fuli Feng, Xinyu Lin, Xiangnan He, Tat-Seng Chua

论文ID:2304.04971

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-04-18

PDF 下载: 英文版 中文版pdf翻译中