
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于几何图时空卷积网络的多目标跟踪算法GGSTrack:密集场景与复杂遮挡下的鲁棒性突破
【字体: 大 中 小 】 时间:2025年08月12日 来源:Neurocomputing 6.5
编辑推荐:
本文提出了一种创新的多目标跟踪(MOT)算法GGSTrack,通过几何图卷积网络(GGCN)实现密集场景稀疏化建模,结合时空卷积网络(TCN)构建四阶段级联匹配框架,有效解决了目标遮挡、身份切换和运动模糊等关键挑战。实验表明该方法在MOT16/17/20和DanceTrack数据集上达到SOTA性能,特别适用于社交计算等实际应用场景。
Highlight
本研究针对多目标跟踪(MOT)领域两大核心挑战——密集场景中的严重遮挡/目标相似性问题与运动模糊现象,创新性地提出GGSTrack算法。该算法通过几何图卷积网络(GGCN)将视频帧转化为无向图,优化节点聚合机制增强目标特征表达;同时引入过去N帧输入,使用时序卷积网络(TCN)捕捉运动演化规律,显著提升跟踪鲁棒性。
Method
为解决传统算法忽视目标运动时空连续性的缺陷,我们构建了包含空间编码(几何图卷积)与时间编码(TCN)的联合建模框架。独创的四阶段级联匹配系统包含:初始过滤→不确定目标匹配→低分处理→遮挡处理模块,在保证精度的同时实现计算效率优化。
Datasets
在MOT Challenge系列基准测试(MOT16/17/20)和DanceTrack专项数据集上,采用"私有检测"协议进行评估。其中MOT16作为基础基准提供7,500+帧标注数据,而DanceTrack专门针对高密度舞蹈场景设计,包含100+视频序列。
Conclusion
GGSTrack通过图模型实现密集场景稀疏化,其时空编码器融合GGCN与TCN优势,为目标准确关联提供可靠特征支持。实验验证该框架在复杂场景下的优越性,未来可扩展至医疗影像分析等领域。
(注:根据要求已去除文献引用标识,专业术语保留英文缩写并采用标注上标,未使用任何HTML/SVG标签)
生物通微信公众号
知名企业招聘