基于知识精炼信息瓶颈的对比推荐方法研究:去噪知识图谱与高质量表征学习

【字体: 时间:2025年06月25日 来源:Expert Systems with Applications 7.5

编辑推荐:

  推荐:针对知识图谱(KG)中噪声三元组干扰用户偏好建模及用户-物品交互主导导致KG信息利用不足的问题,研究人员提出知识精炼信息瓶颈对比推荐模型(KIBCR)。通过信息瓶颈(IB)原则压缩原始KG噪声并保留任务相关语义,结合知识集成对比学习(KCL)策略增强表征,在四个数据集上超越现有最优方法,为知识感知推荐提供新思路。

  

知识图谱(KG)为推荐系统提供了丰富的物品属性和关系信息,但其中不可避免的噪声三元组会扭曲用户真实偏好。尽管基于图对比学习(GCL)的知识感知推荐方法取得进展,仍面临两大挑战:缺乏监督信号导致难以识别噪声三元组,以及用户-物品交互数据的主导地位削弱了KG对推荐结果的影响。针对这些问题,研究人员提出知识精炼信息瓶颈对比推荐模型(KIBCR),从信息论角度学习去噪KG并提取高质量表征以提升推荐性能。

KIBCR基于信息瓶颈(IB)原则的压缩-保留机制,通过最大化去噪KGk与任务标签Y的互信息I(Gb,Gk;Y),同时最小化原始KGk与去噪KGk的互信息I(Gk,Gk)。技术实现包含:(1)IB正则化知识精炼(IBKR)范式,采用Hilbert-Schmidt独立性准则(HSIC)无分布估计互信息,自适应压缩KG噪声;(2)知识集成对比学习(KCL)策略,通过跨层次对比学习融合去噪KG与用户-物品二部图(BG)信息。

IBKR范式实现信息压缩
通过变分近似和HSIC估计,IBKR最小化I(Gk,Gk)以过滤任务无关信息。相比传统方法依赖分布假设,HSIC能更稳定衡量变量间依赖性,确保去噪KG仅保留最小充分信息。

KCL策略实现信息保留
将去噪KG的实体表征作为初始嵌入,通过分层对比学习强制最终表征同时编码KG与BG信息。实验显示该策略使NDCG@20指标最高提升9.8%,显著优于生成多视图对比方法。

实验验证
在Amazon-Book等四个数据集上的实验表明:KIBCR在Recall@20指标上平均超越最优基线7.3%,证明其有效平衡信息压缩与保留;消融实验显示IBKR和KCL分别贡献性能提升的62%和38%;噪声注入测试中,KIBCR在50%噪声比例下仍保持91%的原始性能,展现强鲁棒性。

该研究创新性地将IB原理引入知识感知推荐领域,提出的KIBCR模型为处理KG噪声和交互数据主导问题提供了新范式。其理论贡献在于发展无分布互信息估计方法,实践价值体现在可扩展至需要知识增强的推荐场景。论文发表于《Expert Systems with Applications》,为推荐系统领域知识利用与表征学习的研究开辟了新方向。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号