
-
生物通官微
陪你抓住生命科技
跳动的脉搏
面向无人机夜间视觉监控的并行联合编码低光照目标检测模型(PFNN)研究
【字体: 大 中 小 】 时间:2025年09月23日 来源:Frontiers in Artificial Intelligence 4.7
编辑推荐:
本文提出了一种面向低光照条件下无人机视角目标检测的并行神经网络架构(PFNN),该模型通过协同优化图像增强(Zero-DCE++)与目标检测(YOLOv5)模块,构建双向梯度传播机制,显著提升了夜间环境下目标检测的鲁棒性与准确性。创新性引入空间自适应特征调制模块(SAFM)和高低频自适应特征增强模块(HLAFE),有效解决了低光照图像中的噪声干扰与特征退化问题,在VisDrone2019(Night)和Drone Vehicle(Night)数据集上mAP@0.5:0.95指标分别提升3.13%和3.1%,为无人机夜间视觉监控提供了高效可靠的解决方案。
随着无人机(UAV)技术的快速发展,其在夜间监控、灾害救援与军事侦察等领域的目标检测应用日益广泛。然而,夜间环境存在光照不足、噪声干扰和目标-背景对比度低等问题,严重制约了传统检测算法的性能。现有方法多采用串行处理框架(即先增强后检测),存在任务特征优化孤立、过度增强引入伪影、计算冗余等问题。为此,本研究提出一种并行融合神经网络架构(PFNN),通过端到端联合优化实现光照增强与目标检测的协同处理,显著提升检测精度与实时性。
传统方法如直方图均衡化、伽马变换和Retinex算法依赖精确先验知识,泛化能力有限。深度学习中的监督方法(如SENet、MIRNetv1/v2)通过注意力机制和多分辨率卷积流提升性能,而无监督方法(如Zero-DCE系列)无需配对数据即可实现自适应亮度调整。本研究采用Zero-DCE++作为增强模块,通过无监督学习动态调整光照分布,并与检测网络并行优化,克服串行处理的局限性。
无人机视角存在尺度变化大、背景复杂和视角畸变等挑战。YOLO系列算法因高效性与准确性被广泛采用。本研究以轻量级YOLOv5为检测主干,结合联合训练框架(如ED-TwinsNet、动态滤波网络)实现增强与检测的深度融合,提升复杂环境下的检测能力。
空间自适应特征调制模块(SAFM)通过多尺度特征融合动态增强局部与全局信息感知能力;高频低频自适应特征增强模块(HLAFE)结合空间上下文模块(SCM)和高低频特征提取模块(HLFEM),通过特征锐化与对比度增强强化边缘与结构信息。两者的协同作用使模型能精准捕捉夜间复杂场景中的目标特征。
如Figure 1所示,PFNN集成Zero-DCE++与YOLOv5,通过并行处理实现端到端联合优化。其核心优势包括:提升计算效率、增强子网络间特征交互、通过梯度共享实现任务导向的特征优化。
SAFM模块(如Figure 2所示)首先对输入特征X进行通道分割,通过深度可分离卷积(DW-Conv)和多尺度操作(下采样、卷积、上采样)提取特征,再通过最大池化与1×1卷积聚合多尺度特征,最终通过GELU激活生成注意力图实现动态特征加权。该机制显著提升低光照条件下的检测鲁棒性。
HLAFE模块(如Figure 3所示)由卷积嵌入(CE)、SCM、HLFEM和卷积多层感知机(ConvMLP)组成。其通过并行通路捕获丰富上下文信息与细粒度语义特征,HLFEM受图像锐化与对比度增强启发,通过下采样平滑提取低频信息,并通过残差计算高频细节,最终融合多频率特征优化分割性能。
使用VisDrone2019(Night)和Drone Vehicle(Night)数据集,训练超参数包括:Adam优化器(学习率0.015)、批量大小8、训练轮数300。YOLOv5检测器采用预训练权重,前100轮冻结Zero-DCE++网络以稳定特征学习,后续进行端到端联合优化。
采用平均精度(AP)、召回率(R)、精确率(P)和平均精度均值(mAP)作为评价指标。其中mAP@0.5:0.95和mAP@0.5为核心指标,计算公式分别为:
AP = (TP + TN) / (TP + TN + FP)
R = TP / (TP + FN)
P = TP / (TP + FP)
mAP = (1/n) × ∑APi(n为类别数)
在ExDark数据集上,PFNN的mAP@0.5和mAP@0.5:0.95较YOLOv5基线分别提升3.26%和4.87%。相较于串行结构(如LIME/YOLOv5),并行架构在mAP@0.5:0.95上提升3.82%。消融实验表明:
SAFM模块通过多尺度动态特征融合使召回率提升5.3%;
HLAFE模块通过空间上下文建模提升细粒度目标检测精度;
完整模型(YOLOv5 + HLAFE + SAFM)在Drone Vehicle(Night)上mAP@0.5达0.749,召回率提升7.1%。
视觉对比结果(如Figure 7)验证了模型在车辆边界定位和行人误检抑制方面的优势。
本研究提出的PFNN框架通过Zero-DCE++与YOLOv5的并行协同优化,有效解决了低光照无人机检测中的光照退化与噪声干扰问题。SAFM与HLAFE模块的引入进一步增强了多尺度特征感知与细节保留能力。在夜间数据集上,模型实现了mAP@0.5:0.95提升3.13%和召回率提升7.1%的显著效果,为无人机夜间监控提供了可靠解决方案。未来工作将聚焦于多模态传感器融合(如红外/可见光协调)与动态资源分配机制,以进一步提升复杂光照环境下的系统鲁棒性。
生物通微信公众号
知名企业招聘