从社区视角出发,为异构链接预测提供合理的解释

《Knowledge-Based Systems》:Fair Path Explanations for Heterogeneous Link Prediction from a Community Perspective

【字体: 时间:2025年10月10日 来源:Knowledge-Based Systems 7.6

编辑推荐:

  针对异构图神经网络链接预测中解释偏见问题,提出社区视角的公平解释框架FExpCom。通过预处理过滤噪声、自适应图掩码学习平衡内外链权重,生成公平路径解释,有效减少偏见,并在五个数据集验证。

  在当前的图神经网络(GNN)解释模型中,异质图链接预测的公平性问题一直是一个被忽视的重要方面。链接预测是指在图中预测两个节点之间是否存在某种类型的边,而异质图链接预测则进一步考虑了图中节点和边的多样性,例如不同类型的节点(如用户、物品、属性等)和不同类型的边(如购买、喜欢、引用等)。在实际应用中,这些链接预测结果往往需要解释,以帮助用户理解模型为何做出特定的预测。然而,现有模型在解释过程中,往往倾向于生成同社区内的解释路径,而忽视了跨社区的链接,从而导致了不公平的解释。

同社区链接(internal-links)是指连接同一社区内节点的边,而跨社区链接(cross-links)则是连接不同社区节点的边。在现实网络中,同社区链接的数量通常远多于跨社区链接。这种数据分布的不平衡性可能导致模型在解释过程中产生偏差,使得跨社区链接的解释被低估或忽略,从而影响解释的公平性。这种不公平的解释可能引发信息茧房效应,即用户只接触到与其原有社区相关的信息,而无法获取其他社区的信息,从而限制了模型的泛化能力和应用范围。此外,跨社区链接在维持图的连通性方面发挥着重要作用,忽视这些链接的解释可能会导致图结构的断裂。

为了应对这一问题,本文提出了一种基于社区视角的公平图神经网络解释框架(FExpCom),旨在减少同社区和跨社区链接在解释中的偏差。该框架首先通过社区检测算法(如Louvain算法)对图进行预处理,将节点划分为不同的社区,并据此将链接分为同社区和跨社区两类。随后,进行边缘过滤操作,以构建一个简化后的图,去除冗余或噪声信息。接下来,引入一个公平的目标函数,学习一个图掩码(graph mask),以增强跨社区链接的重要性,同时降低同社区链接的影响。这一过程是基于社区强度(community strength)进行的自适应调整,从而在解释过程中平衡同社区和跨社区链接的权重。最后,通过在学习到的图掩码上应用最短路径算法,提取出公平的解释路径,以用于异质图链接预测的解释。

本文的研究不仅关注模型的预测性能,还特别强调了解释的公平性。在异质图链接预测中,解释的公平性指的是模型在生成解释时,是否能够公平地对待同社区和跨社区的链接。为了衡量这一公平性,本文引入了两个新的评估指标:解释偏差(ExpBias)和公平性指标(Bias)。其中,ExpBias衡量同社区和跨社区链接在解释性能上的差异,而公平性指标则用于评估整体解释的公平性。通过对五个异质图数据集的实验分析,本文发现现有的解释方法在面对数据不平衡时,往往会产生显著的解释偏差,而FExpCom能够有效减少这种偏差,从而提升解释的公平性。

在异质图链接预测的解释研究中,社区信息的利用是一个相对较少被关注的领域。大多数现有工作集中在同质图或节点/图任务的解释上,而较少关注异质图链接预测的公平性问题。此外,现有的公平性研究虽然在异质图链接预测方面有所涉及,但很少将公平性与解释能力结合起来考虑。例如,FairHELP [20] 是一个针对异质图链接预测的公平性方法,但其并未考虑解释的公平性。本文则填补了这一空白,提出了一种结合社区信息和公平性目标的解释框架,从而在提升模型预测性能的同时,也确保了解释的公平性。

本文的主要贡献包括以下几个方面:首先,本文正式定义了基于链接类型的公平解释问题,即在异质图链接预测中,如何确保同社区和跨社区链接的解释质量具有公平性。其次,本文提出了一种新的公平图神经网络解释框架(FExpCom),该框架通过引入公平目标函数,学习一个图掩码,以平衡同社区和跨社区链接的重要性。最后,本文引入了两个新的评估指标,用于衡量解释的公平性,并通过实验验证了FExpCom在减少解释偏差方面的有效性。

为了进一步探讨解释偏差的来源,本文分析了数据分布不平衡与解释准确率差异之间的关系。尽管数据分布的不平衡性可能不会直接导致解释准确率的差异,但通过定量分析,发现两者之间存在显著的相关性。具体而言,本文计算了不同数据集中同社区和跨社区链接比例与解释准确率之间的皮尔逊相关系数,结果显示,这种比例差异对解释准确率的影响非常显著。因此,数据分布的不平衡性是导致解释不公平的一个重要因素。

此外,本文还比较了现有的几种解释方法,包括GNNExp-Link、PGExp-Link和PaGE-Link [8],并发现这些方法在面对数据不平衡时,其解释性能存在显著的偏差。例如,在跨社区链接的解释上,这些方法的性能远低于FExpCom。这表明,现有的解释方法在处理异质图链接预测时,尚未充分考虑数据分布的不平衡性,从而导致了解释的不公平。

在实验部分,本文使用了三个现有的异质图数据集(AugCitation、UserItemAttr和Ogbn-magsyn)以及两个新生成的数据集(HGBn-IMDBsyn和Ohgbn-acmsyn),以验证FExpCom的有效性。实验结果显示,FExpCom在减少同社区和跨社区链接的解释偏差方面表现优异,同时保持了整体解释性能的稳定。这表明,FExpCom不仅能够提升解释的公平性,还不会牺牲模型的预测能力。

在方法实现方面,本文首先进行了社区划分,然后通过边缘过滤操作构建了一个简化图。接下来,通过公平目标函数学习一个图掩码,该掩码能够自适应地调整边的重要性,以增强跨社区链接的影响。最后,通过在学习到的图掩码上应用最短路径算法,提取出公平的解释路径。这一过程确保了在解释过程中,跨社区链接不会被忽视,从而提升了解释的公平性。

本文的研究具有重要的现实意义。在实际应用中,异质图链接预测被广泛用于医疗、政策等需要高解释性的领域。因此,确保解释的公平性不仅有助于提升模型的可信度,还能避免因解释偏差而导致的决策失误。例如,在医疗领域,跨社区链接可能包含关键的诊断信息,而忽视这些信息的解释可能会导致误诊或漏诊。因此,本文提出的FExpCom框架能够为这些领域提供更加公平和可靠的解释。

在公平性指标的设计上,本文引入了解释偏差(ExpBias)和公平性指标(Bias),这两个指标能够从不同的角度评估解释的公平性。ExpBias衡量同社区和跨社区链接在解释性能上的差异,而公平性指标则用于评估整体解释的公平性。通过这两个指标,本文能够更全面地分析模型在解释过程中是否存在偏差,并据此优化模型的解释能力。

在实验结果分析中,本文发现FExpCom在多个数据集上的表现优于现有的解释方法。例如,在AugCitation数据集上,FExpCom能够显著减少跨社区链接的解释偏差,同时保持同社区链接的解释性能。这表明,FExpCom能够在不牺牲同社区链接解释质量的前提下,提升跨社区链接的解释能力。此外,FExpCom在UserItemAttr和Ogbn-magsyn数据集上的表现也表明,其在处理不同类型的异质图链接预测时具有良好的适应性和泛化能力。

本文的研究还揭示了数据分布不平衡对解释公平性的影响。在异质图链接预测中,由于同社区链接的数量远多于跨社区链接,模型在学习过程中可能会倾向于依赖这些同社区链接,从而忽视跨社区链接的重要性。这种现象在现有研究中已被广泛观察,但本文首次将这一问题与解释的公平性结合起来,并提出了一种系统性的解决方案。

总的来说,本文提出的FExpCom框架在异质图链接预测的解释公平性方面取得了显著进展。通过引入社区信息和公平目标函数,该框架能够有效减少同社区和跨社区链接的解释偏差,从而提升解释的公平性和可靠性。未来的研究可以进一步探索如何在更复杂的图结构中应用这一框架,以及如何将公平性与解释的其他方面(如可解释性和透明度)结合起来,以实现更全面的模型评估和优化。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号