基于AnimalYOLO-Bytetrack网络的圈养懒猴小位移刻板行为识别研究

【字体: 时间:2025年10月12日 来源:Ecology and Evolution 2.3

编辑推荐:

  本刊推荐一篇基于深度学习的行为识别研究:作者创新性地整合AnimalYOLO目标检测与ByteTrack多目标追踪网络,通过量化边界框长宽比周期性变化(MPDIoU损失函数)和时序分析(ACF与FFT),实现了对圈养懒猴小位移刻板行为(如头部摇晃)的高精度自动识别(mAP达88.9%),为野生动物福利监测提供了可推广的技术范式。

  

1 引言

野生动物救护中心收容的动物常表现出异常行为,其中刻板行为(Stereotypic Behavior)作为无目的、重复性动作,严重影响动物生活质量与社会化进程。现有研究多集中于大位移行为(如踱步)或单一个体行为分析,而对多动物场景下小位移刻板行为(如头部摇晃、绕圈)的研究存在明显空白。懒猴(Nycticebus)作为夜行性树栖灵长类,在圈养环境中因空间限制易出现小位移刻板行为,传统人工观察方法存在效率低、主观性强等问题。尽管深度学习技术已应用于野生动物监测,但现有方法难以有效处理复杂背景下的多目标跟踪、小位移行为量化及周期性分析等挑战。

2 材料与方法

2.1 数据集

研究于云南德宏野生动物救护中心(24.38287°N, 98.45872°E)开展,使用索尼PXW-X280摄像机采集115只懒猴的82段视频。针对夜间拍摄需求,采用红光辅助照明以降低对动物的干扰。数据集分为三部分:
  • 目标检测数据集:从69段非刻板行为视频中提取7316张图像,通过旋转、亮度调整和噪声添加进行数据增强,并按7:2:1划分训练集、验证集和测试集。
  • 多物种验证数据集:收集熊、灵长类(黑猩猩、猕猴)及家猫等4441张图像,以验证方法普适性。
  • 目标跟踪数据集:对13段含刻板行为的视频逐帧标注,记录个体ID、检测框坐标及尺寸,构建专用行为分析数据集。

2.2 基于AnimalYOLO-Bytetrack的行为跟踪框架

整体网络结构(图1)整合目标检测、运动幅度量化与周期分析三模块:
  1. 1.
    AnimalYOLO目标检测模型:基于YOLOv8架构,引入三项关键改进:
    • 多维协同注意力(MCA):通过通道、高度和宽度三分支独立计算注意力权重,增强特征表达能力(公式1-10)。
    • SWS卷积模块:结合SimAM注意力机制与卷积层,对输入特征图分四子块计算注意力权重,提升局部特征增强能力(公式11)。
    • MPDIoU损失函数:通过最小点距离计算替代传统IoU,优化边界框回归精度(公式12),尤其适用于相同宽高比但尺寸差异大的框体识别。
  2. 2.
    ByteTrack跟踪头:采用卡尔曼滤波预测目标位置(公式13-14),并通过匈牙利算法关联检测框与历史轨迹,有效处理遮挡场景下的ID维持问题。
  3. 3.
    运动幅度量化与周期分析
    • 运动幅度指标:以检测框长宽比系数作为量化依据,通过三次样条插值构建连续变化曲线。
    • 数据分割:采用二分异常点检测法(SPSSPRO)分割时间序列,识别刻板行为片段(图3b)。
    • 周期性判断:结合自相关函数(ACF,公式15)与快速傅里叶变换(FFT)分析周期特性,以ACF峰值间隔与FFT主频确定行为周期。

2.3 实验环境与评估指标

实验基于Ubuntu系统、RTX 3080 GPU及PyTorch框架开展。评估指标包括:
  • 目标检测:精确率(Precision, 公式16)、平均精度均值(mAP, 公式17-18)、召回率(Recall, 公式19)。
  • 目标跟踪:身份F1分数(IDF1, 公式20-22)、多目标跟踪准确率(MOTA, 公式23)。
  • 刻板行为预测:周期时间与持续时间的平均绝对误差(MAE)。

3 结果

3.1 目标检测消融与对比实验

消融实验(表2)表明,完整AnimalYOLO模型(YOLOv8-C-A-L)达到最优性能(mAP=88.9%)。对比实验中(表3),其性能超越YOLOv3-v10等主流模型,验证了模块设计的有效性。检测结果(图S4)显示模型能精准贴合懒猴轮廓,为运动幅度量化奠定基础。

3.2 目标跟踪性能

整体跟踪指标为IDF1=59.2%、MOTA=55.3%(表4)。在红光辅助视频中表现优异(如Video_7的IDF1=88.4%),但复杂背景与灰光环境下性能下降(如Video_28的MOTA=22.5%),凸显环境因素对跟踪精度的影响。

3.3 刻板行为判定

刻板行为周期时间预测误差为0.33 s,持续时间误差为0.76 s(表5)。多目标视频中(如Video_44),模型成功识别并区分不同个体的行为周期,证明方法在多场景下的适用性。

3.4 多物种适用性验证

在其他物种中(表6-7),模型获得更高mAP(97.3%)与IDF1(79.3%),周期时间误差降至0.10 s。表明方法对熊、灵长类等动物的刻板行为同样有效,但MOTA略低(52.9%),可能与物种多样性及环境复杂度相关。

4 讨论

4.1 方法学贡献

本研究首次提出基于运动幅度周期变化的小位移刻板行为识别框架,突破传统轨迹分析法的局限。通过MCA与SWS模块增强特征提取,MPDIoU提升定位精度,ByteTrack解决遮挡问题,ACF-FFT pipeline实现周期精准量化。整体框架为动物福利监测提供自动化解决方案。

4.2 性能与泛化性

方法在懒猴数据集中表现良好,但光照与背景复杂度显著影响性能。多物种验证表明其泛化能力较强,尤其对运动幅度较大的物种(如熊)误差更低,说明位移特性是影响量化精度的关键因素。

4.3 局限与展望

当前研究受限于样本量与个体元数据缺失,且未整合非运动指标(如瞳孔反应、竖毛)。未来工作可探索:
  • 统一大小位移行为识别算法(如采用孪生网络RepNet);
  • 融合多模态传感(音频、热成像)提升综合评估能力;
  • 开展长期研究关联行为指标与健康管理策略。

5 结论

本研究开发了一套基于计算机视觉的自动识别系统,成功应用于懒猴及其他动物的小位移刻板行为监测。通过运动幅度量化与周期分析,实现了行为参数的高精度预测,为圈养动物福利管理提供了可靠工具。未来通过技术整合与扩展应用,有望推动野生动物保护向智能化、精细化发展。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号