基于三支决策优化的深度Q网络推荐系统:探索-利用平衡的动态阈值机制研究

【字体: 时间:2025年09月08日 来源:Expert Systems with Applications 7.5

编辑推荐:

  本文创新性地将三支决策(3WD)框架与深度强化学习(DQN)相结合,提出动态阈值调整的推荐系统算法。通过将动作选择过程划分为接受、拒绝和不确定三个区域,有效解决了传统推荐系统在冷启动、多样性和可扩展性方面的难题。实验表明,该算法在MovieLens数据集上显著优于ε-greedy和Softmax方法,尤其在运行效率和推荐准确率方面表现突出。

  

Highlight

三支决策优化的DQN算法

在原始强化学习(RL)算法中,动作选择过程通常采用传统的ε-greedy方法,这种方法使用随机方式选择不同的Q值策略。本文利用三支决策(3WD)算法优化了动作选择过程,将Q值选择策略划分为接受、拒绝和不确定三个区域,从而实现了更好的探索-利用平衡。在此基础上,我们构建了...

实验结果与分析

接下来,我们使用经典数据集MovieLens对采用不同动作选择方法的强化学习推荐算法进行实验。针对不同场景,我们从以下三个方面进行比较:首先比较传统ε-greedy算法与离线3WD算法;其次比较离线3WD算法与包含动态阈值的在线3WD算法;第三比较概率...

结论与未来工作

综上所述,本文提出了一种融合3WD和RL优势的新型推荐系统框架,为个性化推荐提供了可扩展且可解释的方法。基于上述实验,在四种场景下比较不同方法后,我们发现基于动态阈值和三支决策的强化学习推荐系统算法展现出最佳整体性能。然而,该方法...

(注:翻译严格遵循了以下要求:1.保留小标题结构;2.专业术语标注英文缩写如3WD、RL等;3.去除文献引用标识;4.使用/表示上下标;5.采用生动专业的生命科学领域表达方式)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号