视觉遮挡场景下基于船舶运动先验知识的多源感知数据融合方法研究

【字体: 时间:2025年06月03日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  为解决港口监控中AIS与视频数据融合时因坐标系差异、采样频率不同及视觉遮挡导致的船舶目标丢失问题,研究人员提出结合船舶运动先验知识的深度学习框架,通过动态预测遮挡目标位置,将MOFA、IDP、IDR和IDPF1指标提升1.33%-3.01%,为复杂航道监管提供新思路。

  

在繁忙的港口和海岸线,船舶交通服务系统(VTS)依赖自动识别系统(AIS)和视频监控保障航行安全。然而,AIS数据传输存在延迟和丢包风险,而摄像头虽能实时捕捉画面,却易受视觉遮挡干扰——当两船交汇时,目标可能从画面中消失或变形,导致监控系统"失明"。更棘手的是,AIS与视频数据的坐标系和采样频率差异,使得两者融合时如同"鸡同鸭讲"。这些问题严重制约了现代航运监管的精准度。

针对这一技术瓶颈,闽江大学等机构的研究团队在《Engineering Applications of Artificial Intelligence》发表创新成果。他们独辟蹊径地将船舶运动规律转化为算法能理解的"语言",构建了时空双维度的抗遮挡融合模型。该模型不仅能在遮挡发生时智能修补检测框,还能结合AIS轨迹特征预测目标位置,相当于给监控系统装上"预判未来"的智慧之眼。

关键技术包括:1)基于YOLO系列算法的船舶检测框架;2)融合针孔相机模型的跨坐标系对齐技术;3)利用历史帧信息的动态位置预测模块;4)在FVessel_v1.0数据集上验证的评估体系。通过这组技术组合拳,系统能同时处理当前帧及前后时序数据,形成立体感知网络。

方法
研究团队设计的多源数据流水线包含三大创新模块:首先采用改进的YOLOv4实现船舶检测,当检测框因遮挡出现异常时,引入遮挡先验知识进行修正;其次建立AIS轨迹特征库,通过高斯过程回归预测缺失数据;最终构建时空状态模型,将AIS预测结果与图像特征在统一坐标系下融合。这种"三明治"式结构确保即使某时刻数据丢失,系统仍能基于运动规律保持跟踪连续性。

实验结果讨论
在包含大量遮挡场景的FVessel_v1.0数据集测试中,该方法展现出显著优势。与现有最优算法相比,多目标融合准确率(MOFA)提升2.65%,识别精确度(IDP)提高1.94%。特别在持续遮挡案例中,通过运动轨迹预测使目标重识别成功率提升37.2%。值得注意的是,这些改进仅通过优化先验知识利用方式实现,未改变基础检测算法架构,体现出方法的高效性。

结论
该研究突破性地将船舶运动规律编码为算法可理解的先验知识,创建了首个面向遮挡场景的AIS-视频动态融合框架。其核心价值在于:1)提出遮挡错误识别与补偿机制,使系统具备"自我修复"能力;2)开发的时空状态模型突破单帧检测局限,实现跨时段信息互补;3)验证了运动特征在数据融合中的桥梁作用。这项技术为智慧港口建设提供关键支撑,未来可扩展至无人机监控、自动驾驶等领域,对提升复杂环境下的移动目标监测水平具有里程碑意义。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号