LXR:学习如何解释推荐结果
《ACM Transactions on Recommender Systems》:LXR: Learning to eXplain Recommendations
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Recommender Systems
编辑推荐:
可解释人工智能与推荐系统结合,提出LXR框架,通过自监督预训练和推断时微调生成对抗事实解释,支持混合推荐模型并建立新评估指标。
摘要
推荐系统已成为许多在线服务的重要组成部分,它们利用用户数据提供个性化推荐。然而,随着这些系统复杂性的增加,理解其推荐背后的逻辑变得越来越困难。可解释人工智能(XAI)作为一个关键领域应运而生,旨在解决这一挑战,特别是在确保自动化决策过程的透明度和可信度方面。在本文中,我们介绍了“学习解释推荐”(LXR),这是一个可扩展的、与模型无关的框架,旨在为推荐系统生成符合事实的正确解释。
LXR可以为任何可微分的推荐系统生成的推荐生成解释。通过结合事实性和反事实性的损失项,LXR提供了稳健、准确且计算效率高的解释,这些解释反映了模型的内部决策过程。
LXR的一个关键特点是通过反事实推理来确保解释的事实准确性,从而在合理解释和准确解释之间架起桥梁。与依赖对用户数据进行穷尽性扰动的传统方法不同,LXR使用自监督学习方法高效地生成解释,而不会牺牲准确性。LXR分为两个阶段:预训练阶段和创新的推理时微调(ITF)阶段,后者在单个推荐层面细化解释,以最小的计算开销显著提高准确性。此外,LXR还应用于结合人口统计数据的混合推荐模型,展示了其在实际场景中的多功能性。最后,我们还展示了LXR解释用户推荐列表中不同排名推荐的能力。
作为次要贡献,我们引入了几种新颖的评估指标,这些指标受到计算机视觉中显著性图的启发,用于严格评估推荐系统中解释的反事实正确性。我们的结果表明,LXR为可解释性树立了新的基准,提供了准确、透明且可解释的解释。代码可在我们的GitHub仓库中找到:https://github.com/DeltaLabTLV/LXR。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号