通过使用大型语言模型重新排序来提高推荐结果的多样性
《ACM Transactions on Recommender Systems》:Enhancing Recommendation Diversity by Re-ranking with Large Language Models
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Recommender Systems
编辑推荐:
推荐系统需兼顾多样性与相关性,本文探索大语言模型(LLMs)在多样性重排名中的应用。通过零样本提示生成多样化的候选排序,对比GPT、Llama等模型与传统方法(如基于覆盖率、最大熵等),实验发现LLMs在性能-成本 trade-off 上优于随机重排名,但仍有提升空间。代码已开源以促进复现。随着LLMs在NLP任务上的性能提升和推理成本降低,其在推荐系统中的竞争力将逐步增强。
摘要
推荐系统(RS)应提供多样化的推荐结果,而不仅仅是相关的推荐。多样性有助于应对不确定性,并为用户提供有意义的选择。文献中提出了多种提高多样性的方法,最显著的是通过对更广泛的候选推荐进行重新排序和选择。本文基于文献中关于如何将多功能大型语言模型(LLM)整合到推荐系统流程中的有前景的见解,展示了如何利用LLM来实现多样性的重新排序。
我们使用不同的提示模板和重新排序指令,以零样本的方式让LLM从候选排名中生成多样化的排名结果。我们测试了来自GPT和Llama系列的先进LLM,并将其重新排序能力与随机重新排序以及文献中的各种传统重新排序方法进行了比较。我们将实验代码开源,以便他人能够复现我们的结果。研究发现,基于LLM的重新排序器在性能和成本等方面的权衡优于随机重新排序器,但暂时仍不如传统重新排序器。然而,由于LLM在许多自然语言处理和推荐任务中表现出更好的性能,并且推理成本更低,我们可以预期基于LLM的重新排序方法很快会更具竞争力。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号