动态注意力图神经网络DyAtGNN:面向节点频繁演化的时空图表示学习新范式

【字体: 时间:2025年06月22日 来源:Knowledge-Based Systems 7.2

编辑推荐:

  针对动态图中传统方法难以捕捉节点频繁变化的时空动态性问题,Feihong Tan团队提出融合时序动态学习模块与自适应结构学习模块的DyAtGNN框架。该模型通过RNN同步学习参数与关键节点,结合深度消息聚合机制,在8个动态图数据集上实现最高67%的性能提升,为社交网络分析、交通优化等场景提供新工具。

  

随着社交网络、交通系统等复杂系统的快速发展,如何捕捉其动态演化规律成为研究热点。传统静态图神经网络(GNN)如GCN、GAT虽能处理固定拓扑结构,却难以应对现实中节点频繁增减的动态场景。现有方法多采用RNN与GNN简单堆叠,导致时空特征割裂,尤其面临新节点出现时性能骤降的瓶颈。这一挑战在金融欺诈检测、疫情传播预测等时效性强的场景中尤为突出。

针对这一难题,研究人员在《Knowledge-Based Systems》发表论文提出DyAtGNN框架。该研究通过三大技术创新:1)时序动态学习模块采用自适应节点选择机制,通过RNN同步更新模型参数与关键节点嵌入;2)自适应结构学习模块引入动态自注意力机制,增强深层消息聚合能力;3)独创的图上下文预测模块实现时空特征的协同优化。研究团队在8个动态图数据集上验证,DyAtGNN在节点分类、链接预测等任务中显著超越EvolveGCN等基线模型,尤其在节点突变场景下最高提升67%。

关键技术方法
研究采用离散时间动态图(D-TDG)表示,构建包含T个时间步的图序列G=(G1,...,GT)。时序模块使用GRU单元学习节点影响力分数,结构模块通过多头注意力机制计算节点重要性权重。实验涉及4类基线模型对比和8组消融实验,数据集涵盖社交网络、生物网络等多元场景。

研究结果

  1. 时序动态学习模块:通过前一时刻节点特征计算影响力得分,筛选Top-k节点参与RNN训练,使模型对新增节点敏感度提升41%。
  2. 自适应结构学习模块:动态自注意力机制结合3层消息传递网络,使深层邻域信息保留率提高58%。
  3. 综合性能:在Bitcoin-OTC等强动态数据集上,节点分类F1-score达0.872,较ROLAND提升23%;链接预测AUC保持0.913±0.004的稳定性。

结论与意义
DyAtGNN的创新性体现在:首次实现模型参数与节点嵌入的协同时序学习,突破传统方法对节点突变的处理局限;提出的双模块架构为动态图学习提供通用框架,在网络安全、智慧医疗等领域具有应用潜力。研究同时揭示,当时序模块选择20%-30%的关键节点时,能最优平衡计算效率与特征完整性。未来工作可探索连续时间动态图(C-TDG)的扩展应用,以及与其他神经架构如Transformer的融合可能性。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号