推荐系统中用于大型语言模型的双步接地范式

摘要:大型语言模型(LLMs)在推荐领域的关注日益加深,为了提高它们在提供推荐方面的效果,针对推荐目的对LLMs进行优化(称为LLM4Rec)具有关键作用。然而,现有的LLM4Rec方法通常使用有限的候选集来评估性能,这可能无法准确反映模型的整体排名能力。在本文中,我们的目标是调查LLMs的综合排名能力,并提出一个称为BIGRec(推荐的双步接地范式)的两步接地框架。它首先通过微调将LLMs接地到推荐空间,生成有意义的项目令牌,然后找出与生成的令牌相对应的合适实际项目。通过对两个数据集进行广泛的实验,我们证实了BIGRec在处理少样本场景上表现出的优越性能、处理多个领域的多样性。此外,我们观察到,对于BIGRec来说,增加训练样本的数量所带来的边际收益是有限的,这意味着LLMs由于其强大的语义先验知识,具有有限的能力吸收统计信息,如流行度和协同过滤。这些发现还强调了将多样的统计信息整合到LLM4Rec框架中的有效性,从而指向了未来研究的潜在方向。我们的代码和数据可在https://github.com/SAI990323/Grounding4Rec找到。

作者:Keqin Bao, Jizhi Zhang, Wenjie Wang, Yang Zhang, Zhengyi Yang, Yancheng Luo, Fuli Feng, Xiangnaan He, Qi Tian

论文ID:2308.08434

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-08-17

PDF 下载: 英文版 中文版pdf翻译中