多模态推荐的Bootstrap潜在表示
摘要:与传统的多模态推荐方法相比,本文研究了利用物品多模态信息(如图像和文本描述)来提高推荐准确性的问题。目前现有的先进方法往往使用辅助图(例如用户-用户或物品-物品关系图)来增强用户和/或物品的表示,除了用户-物品交互图。这些表示通常通过图卷积网络在辅助图上进行传播和聚合,但这在计算和内存方面可能非常昂贵,尤其是对于大型图来说。此外,现有的多模态推荐方法通常利用贝叶斯个性化排名(BPR)损失中的随机负样本来指导用户/物品表示的学习,这增加了在大型图上的计算开销,可能还会将噪声监督信号引入训练过程中。为了解决上述问题,我们提出了一种新颖的自监督多模态推荐模型BM3,它既不需要来自辅助图的增强,也不需要负样本。具体来说,BM3首先通过简单的dropout增强从用户和物品的表示中引导出潜在对比视图。然后,它通过重新构建用户-物品交互图并在内部和内间模态角度上对齐模态特征来同时优化三个多模态目标,学习用户和物品的表示。BM3减轻了与负样本对比以及来自用于对比视图生成的额外目标网络的复杂图增强的需求。我们在三个数据集上展示了BM3优于先前的推荐模型,节点数从20K到200K不等,同时训练时间减少了2-9倍。我们的代码可在https://github.com/enoche/BM3上获得。
作者:Xin Zhou, Hongyu Zhou, Yong Liu, Zhiwei Zeng, Chunyan Miao, Pengwei Wang, Yuan You, Feijun Jiang
论文ID:2207.05969
分类:Information Retrieval
分类简称:cs.IR
提交时间:2023-05-02