用于检测鱼类觅食行为和距离的深度学习模型
《Ecological Informatics》:Deep learning model for detecting fish foraging movement and distance
【字体:
大
中
小
】
时间:2025年10月15日
来源:Ecological Informatics 7.3
编辑推荐:
本研究开发了一种结合YOLOv8目标检测和DeepSORT多目标跟踪框架的金鱼觅食行为分析系统,包含FGAM(群体平均运动)、FGCPT(群体质心跟踪)、FGD(群体离散度)和FGRSFR(右侧投喂区比例)四个行为模型,实现99%检测精度和85%跟踪精度,可实时评估觅食强度、空间协调性及投喂区利用效率,为智能水产养殖中的精准投喂策略提供数据支持。
### 研究背景与意义
Koi(鲤鱼)作为一种具有生态和经济价值的观赏性鱼类,在东亚地区受到广泛喜爱,不仅因其独特的外观,还因其在文化上的象征意义。随着全球对观赏鱼产业的需求持续增长,Koi的市场价值在2024年达到约28亿美元,并预计到2033年将增长至43亿美元,年均复合增长率约为4.9%。然而,尽管Koi在商业上的重要性不断提升,关于其在智能水产养殖系统中觅食行为的定量研究仍然较为有限。传统的水产养殖方法通常依赖人工观察和经验判断,这种模式不仅效率低下,而且难以适应现代水产养殖的智能化需求。因此,开发一种能够实时监测Koi觅食行为的框架,对于优化养殖策略、提升资源利用效率以及促进生态友好型水产养殖至关重要。
本研究提出了一种结合高精度目标检测与多目标跟踪的Koi群体行为观察框架,旨在捕捉Koi觅食行为在空间和时间上的细微变化。通过引入Fish Group Average Movement(FGAM)和Fish Group Central Point Tracking(FGCPT)模型,该框架能够量化个体和群体的活动强度及运动模式。同时,Fish Group Dispersion(FGD)和Fish Group Right-Side Foraging Ratio(FGRSFR)模型用于评估群体的空间凝聚力和觅食区域的参与度。该框架不仅提高了检测和跟踪的准确性,还为水产养殖提供了一种可扩展、非侵入式的解决方案,有助于生态信息学的发展。
### 技术方法与框架设计
本研究基于YOLOv8目标检测模型和DeepSORT多目标跟踪算法构建了一个统一的检测与跟踪框架,该框架为Koi的识别、跟踪和行为分析提供了计算基础。YOLOv8是一种先进的实时检测算法,以其高精度和计算效率著称,特别适合复杂水下环境中的目标识别。在本研究中,YOLOv8被用于识别视频帧中的Koi个体,并生成边界框。随后,这些边界框数据被输入DeepSORT算法,以实现持续的身份跟踪和运动轨迹重建。DeepSORT通过结合卡尔曼滤波器进行运动预测和匈牙利算法进行目标关联,从而确保在高密度、低对比度和遮挡等复杂条件下,能够保持目标身份的一致性。
在行为分析方面,研究团队设计了四个关键模型,用于量化Koi群体行为的不同方面。FGAM模型通过计算个体鱼在连续帧之间的平均位移,评估群体活动强度。FGCPT模型则通过跟踪群体中心点的位移,反映群体在觅食过程中的整体移动趋势。FGD模型通过计算群体在觅食后的空间分布变化,评估群体的分散程度。FGRSFR模型则通过测量Koi在指定觅食区域(本研究中为视频帧右侧三分之一)的占比,提供关于群体空间觅食偏好的定量指标。这些模型的结合,使得该框架能够同时捕捉群体行为的时间动态和空间特征,为水产养殖的智能化管理提供了全面的实时数据支持。
### 实验设计与结果分析
为了验证所提出的框架的有效性,研究团队进行了广泛的实验和数据分析。实验使用了一个240×60×45厘米的水族箱,其中饲养了12条Koi。通过1080P摄像头,研究人员能够实时监控鱼群的运动和环境条件,并将数据输入YOLOv8模型进行检测。YOLOv8模型的训练数据来源于3000张标注过的鱼图像,其中1500帧来自1分钟的视频片段。在训练过程中,模型输入分辨率为640×640像素,批量大小为16,训练周期为316次,最终在48,664个训练步骤后完成训练。模型配置了18个输出过滤器,以确保在不同视觉条件下,能够实现精确的目标定位。
在检测精度方面,YOLOv8表现优于YOLOv5和YOLOv4。在699个手动标注的Koi实例中,YOLOv8的平均交并比(Average Intersection over Union, IoU)达到了89%,而YOLOv5和YOLOv4分别为71%和80%。此外,YOLOv8的平均计数误差仅为0.15,而YOLOv4的计数误差为1.89。在精确度方面,YOLOv8达到了99%,而YOLOv5为88%,YOLOv4为98%。这些结果表明,YOLOv8在高密度、低对比度的水下环境中具有更强的鲁棒性和稳定性,能够为后续的跟踪和行为分析提供可靠的基础。
在跟踪准确性方面,研究团队评估了YOLOv8、YOLOv5和YOLOv4在100张包含重叠鱼的图像上的表现。YOLOv8在100个实例中成功匹配了85个,准确率为85%。相比之下,YOLOv5和YOLOv4的准确率分别为61%和27%。这一结果表明,YOLOv8在处理遮挡和视觉模糊的复杂场景时,能够保持更稳定的目标身份匹配,从而确保持续的跟踪和行为分析。
此外,研究团队还对FGAM和FGCPT模型在不同时间段(白天和夜间)的活动进行了比较分析。结果表明,夜间Koi的平均位移(8825.4厘米)明显高于白天(8247.3厘米),这反映了在低光环境下,Koi对食物的响应更为迅速和协调。在FGD模型中,研究团队分析了群体在觅食过程中的空间分布变化,发现高分散度通常与觅食结束相关,而低分散度则表明群体仍在积极觅食。通过结合FGD和FGRSFR模型,研究团队能够更准确地判断群体是否已经完成觅食,并据此调整投喂策略。
### 行为分析与应用价值
FGAM和FGCPT模型不仅能够量化Koi的活动强度,还能够揭示群体在觅食过程中的协调性。在白天和夜间觅食过程中,FGAM和FGCPT模型均显示出不同的行为模式。例如,在夜间觅食中,群体的平均位移和最小位移均较高,表明鱼群在低光条件下具有更强的集体活动性和凝聚力。而在白天觅食中,群体的活动波动较大,可能受到环境光线变化和外部刺激的影响。这些行为模式的差异为水产养殖的智能化管理提供了重要的参考依据。
在FGD和FGRSFR模型的应用中,研究团队发现,高分散度通常意味着觅食活动的结束,而高FGRSFR值则表明鱼群仍在积极觅食。例如,在Vid_6中,FGD值迅速下降,同时FGRSFR值从约60%上升至90%以上,这表明鱼群在觅食区域迅速聚集。而在Vid_29中,FGRSFR值持续高于85%,直到约600帧后才逐渐下降,这可能意味着鱼群对食物的吸引力较强,或者食物分布不够均匀。通过这些模型,研究团队能够实时评估群体的觅食状态,并据此优化投喂策略。
此外,研究团队还对FGAM和FGCPT模型与传统行为指标(如速度方差和极性)进行了比较分析。结果显示,FGAM和FGCPT模型能够提供更细粒度的行为信息,而速度方差则更适合用于监测群体的整体运动一致性。极性指标虽然能够反映群体的运动方向一致性,但在觅食过程中往往受到噪声干扰,难以进行实时分析。相比之下,FGAM和FGCPT模型能够更清晰地捕捉群体活动的动态变化,为水产养殖的智能化管理提供了更实用的指标。
### 框架优势与局限性
本研究提出的框架在多个方面具有显著优势。首先,它结合了YOLOv8和DeepSORT,实现了高精度的检测和跟踪,能够有效识别Koi的聚集、觅食和分散等行为阶段。其次,框架中的四个行为模型(FGAM、FGCPT、FGD和FGRSFR)能够同时分析群体行为的时间动态和空间特征,为水产养殖提供多维度的实时数据支持。此外,该框架具有非侵入性,能够在不影响鱼群自然行为的前提下进行监测,适用于长期的行为观察和生态研究。
然而,该框架也存在一定的局限性。目前的实验主要在受控的室内环境中进行,而实际的水产养殖环境可能更加复杂,包括光照变化、水温波动、水体浑浊度等因素。因此,为了确保框架在不同养殖环境中的可靠性,未来的研究需要考虑更广泛的环境变量,并通过标准化的摄像头安装和多样化的训练数据来提升模型的适应性。
### 未来展望与研究建议
为了进一步提升该框架的实用性,未来的研究可以考虑将更多的环境参数(如水质、气候条件、水温变化和光照周期)纳入行为监测系统,以增强对Koi觅食动态的分析能力。此外,结合生态信息学的方法,可以实现对鱼类行为的预测和适应性管理,从而提高水产养殖的可持续性。研究团队还建议,在实际应用中,可以采用自适应滤波技术来优化FGAM和FGCPT模型的信号稳定性,同时保留其对群体行为的敏感性。
总体而言,本研究为智能水产养殖提供了一种创新的解决方案,能够实时监测Koi的觅食行为,并为优化投喂策略提供数据支持。通过结合计算机视觉和行为模型,该框架不仅提高了水产养殖的效率,还促进了生态信息学的发展,为实现可持续的水产养殖提供了新的思路和方法。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号