探索使用大型语言模型进行基于文本的协同过滤的上限:发现与洞察
摘要:基于文本的协同过滤(Text-based Collaborative Filtering, TCF)已成为文本和新闻推荐的主流方法,利用文本编码器(也称为语言模型)来表示物品。然而,现有的TCF模型主要集中在使用小型或中型语言模型。替换物品编码器为最大和最强大的语言模型之一,如具有1750亿参数的GPT-3模型,对推荐性能会产生何种影响仍不确定。我们是否可以期望出现前所未有的结果?为此,我们进行了一系列广泛的实验,旨在探索TCF范式的性能限制。具体而言,我们将物品编码器的规模从一亿增加到一千亿,以揭示TCF范式的扩展限制。然后,我们研究这些极大型语言模型是否能够为推荐任务提供通用的物品表示。此外,我们将利用最强大的语言模型与当前主导的基于ID嵌入的范式进行性能比较,并调查这种TCF范式的可转移性。最后,我们将TCF与最近流行的基于提示的ChatGPT推荐进行比较。我们的研究结果不仅得出了积极的结果,还揭示了一些令人意外和以前未知的负面结果,这可以激发对基于文本的推荐系统进行更深入思考和创新思维的灵感。代码和数据集将公开发布供进一步研究使用。
作者:Ruyu Li, Wenhao Deng, Yu Cheng, Zheng Yuan, Jiaqi Zhang, Fajie Yuan
论文ID:2305.11700
分类:Information Retrieval
分类简称:cs.IR
提交时间:2023-05-23