高效且负责任地调整大型语言模型,以实现稳健的Top-k推荐

《ACM Transactions on Recommender Systems》:Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations

【字体: 时间:2025年11月08日 来源:ACM Transactions on Recommender Systems

编辑推荐:

  传统推荐系统因优化整体准确性而忽视用户稀疏性问题,大语言模型虽具备零样本推荐能力但面临可扩展性和成本挑战。本文提出混合任务分配框架,针对弱用户采用上下文学习生成独立任务,实验表明在整合八种推荐算法和三种大模型时,可将弱用户减少12%同时保持成本效益。

  

摘要

传统的推荐系统(RSs)通常会优化整体准确性,但这无意中忽视了那些交互历史较少的用户。尽管大型语言模型(LLMs)在零样本和少量样本情况下的排名能力很强,但在推荐系统中的应用面临两大挑战:(i)可扩展性和泛化能力:因为许多评估依赖于小型、随机抽取的用户子集,这限制了模型对现实世界用户的泛化能力;(ii)在资源受限条件下的合理调整:LLMs会带来不小的成本和延迟,因此不能随意使用。为了解决这些问题,我们提出了一种混合任务分配框架,该框架主动在传统推荐系统和LLMs之间分配排名任务,以提高系统的鲁棒性和效率。我们的策略首先识别出那些从推荐系统中获得较低排名性能的弱用户和不活跃用户。接着,我们对这些用户采用上下文学习方法,将每个用户的交互历史视为一个独立的排名任务。我们测试了这种混合框架,该框架整合了八种不同的推荐算法、三个流行的数据集以及三种LLMs(包括开源和闭源版本),结果显示该框架能够将弱用户的比例降低约12%,同时通过针对性地利用LLMs保持了成本效益。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号