基于计算机视觉的鲑鱼海水养殖呼吸频率监测方法开发与应用
【字体:
大
中
小
】
时间:2025年10月09日
来源:Aquacultural Engineering 4.3
编辑推荐:
本刊推荐:为解决海水养殖中鱼类健康监测难题,研究团队开发了一种基于YOLOv8目标检测与BoT-SORT多目标追踪的计算机视觉方法,可非侵入式估算大西洋鲑(Salmo salar)呼吸频率。该方法在真实养殖场景中达到0.82的皮尔逊相关系数,能有效识别呼吸窘迫鱼群,为养殖业提供了精准高效的福利监测工具。
随着全球水产养殖业的快速发展,有效监测鱼类健康与福利已成为行业的核心需求。传统的人工健康检查不仅需要将鱼从网箱中捞出、进行麻醉和肉眼检查,还会对鱼类造成严重应激,且劳动强度大、成本高昂。更关键的是,这种间歇性抽查可能无法及时发现问题,直到诸如摄食量下降等滞后指标显现时,往往为时已晚。因此,开发一种能够连续、实时、非侵入式且能反映鱼类生理状态的监测技术迫在眉睫。
尽管非侵入式视频监控已在鱼类养殖中普及,但现有的智能监测方法多集中于评估体型条件或游泳模式,且大多在环境可控的水族箱中开发与验证,其在实际开阔海域的商业化养殖场中的适用性未能得到证明。尤其缺乏的是能够直接在生产环境中监测鱼类生理指标(如呼吸频率)的方法。鱼类呼吸频率(或称ventilation rate)是反映应激状态的关键指标,通常会因环境氨暴露、疾病、拥挤及水母蜇伤等因素而加快。目前,养殖场工作人员通常通过定性观察视频流来评估呼吸状态,缺乏定量化的客观手段。此前虽有研究尝试用计算机视觉估算鱼类呼吸频率,但或依赖于特定鱼种鳃部的颜色变化,或需对每条鱼进行个体识别建模,且均在小型可控环境中验证,难以应对真实海水养殖场中水体浊度、相机晃动、光照多变等复杂挑战,更无法扩展到容纳数万尾鱼的大型商业网箱。
为此,由澳大利亚格里菲斯大学(Griffith University)海岸与海洋研究中心的Lukas Folkman、Quynh LK Vo、Colin Johnston、Bela Stantic和Kylie A Pitt组成的研究团队,在《Aquacultural Engineering》上发表了一项研究,开发并验证了一种专为商业化海水鱼养殖场设计的计算机视觉方法,用于从水下视频中定量估算大西洋鲑(Salmo salar)的呼吸频率。该方法充分利用养殖场现有基础设施拍摄的视频,旨在高效分析大量鱼类,提供群体水平的呼吸频率估计,而非针对特定个体的长期观察,从而帮助养殖者快速识别出呼吸窘迫的网箱,优化健康检查的优先级,提升养殖效率与鱼类福利。
为开展本研究,研究人员从澳大利亚东南塔斯马尼亚州的13个鲑鱼养殖场(共35个不同网箱)收集了49段视频数据,这些网箱平均养殖58,901尾鱼(平均体重2.7 kg)。他们使用YOLOv8(You Only Look Once version 8)目标检测模型检测鱼头并对嘴部状态(张开、闭合或无法闭合的“下颌下垂”)进行分类,然后利用BoT-SORT(Botton-up Tracking and Segmentation for Object Tracking)多目标跟踪算法创建同一尾鱼的时间序列(轨迹),最后通过处理嘴部状态序列来估算呼吸频率(单位:次/分钟)。研究还设立了独立的测试集(100尾鱼的手动标注轨迹)以验证方法的准确性。
主要技术方法
研究团队收集了49段在商业养殖场真实环境下拍摄的水下视频(分辨率1280×960,帧率30 fps),并从中手动标注了13,778个鱼头用于训练、验证和测试YOLOv8模型。通过多重数据标注质量控制(如剔除嘴部张开过小的鱼、模糊背景干扰项)提升模型精度。利用BoT-SORT算法进行目标跟踪,并设计了针对性的后处理流程(如插补单帧漏检、修正单帧误分类)来优化呼吸序列质量。最终通过计算完整“张开-闭合”周期的平均持续时间来估算每尾鱼的呼吸频率,并在独立测试集上采用皮尔逊相关系数(Pearson correlation coefficient)和平均绝对误差(MAE)评估性能。
4.1. 鱼头检测与分类
通过优化训练数据(剔除窄口张开样本及模糊背景干扰),YOLOv8模型在测试集上对“张嘴”和“闭嘴”状态的检测平均精度(AP50)分别达到95.8%和93.2%,显著优于基线模型。模型训练过程稳定,验证损失和mAP50–95指标均在50个epoch内趋于平稳,表明训练充分。
4.2. 目标跟踪性能
在包含100尾独立标注鱼轨迹的测试集上,跟踪关联准确率均值达97.7%,身份切换罕见。“张嘴”和“闭嘴”状态的召回率(Recall)分别为93.1%和87.2%,精确率(Precision)分别为96.1%和90.6%。绝大多数分类错误(92.0%)发生在嘴部开合过渡帧,但通过后处理规则修正后对呼吸频率估算影响较小。
4.3. 呼吸频率估算结果
模型预测呼吸频率与真实值间皮尔逊相关系数为0.82,平均绝对误差(MAE)为7.15次/分钟。在网箱水平(群体)估算中,误差进一步降低(MAE=3.58)。对四段分别被行业专家标注为“正常”与“高”呼吸频率的视频进行分析,方法成功区分出两组网箱(正常组中位值88.4–88.5次/分钟,高呼吸频率组94.7和112.5次/分钟,Mann–Whitney U检验P<0.01)。
4.4. 对漏检与跟踪失败的鲁棒性
通过模拟不同程度漏检(单帧、连续多帧)及身份切换错误,发现该方法对呼吸频率中位值的估算结果影响较小(ΔmVR < 2次/分钟),且在绝大多数模拟场景下仍能显著区分正常与高呼吸频率群体,证明其具备良好的鲁棒性。
4.5. 处理速度与可扩展性
在NVIDIA A100 GPU上,方法处理速度达31.7 ms/帧,可实现实时处理。通过模型轻量化(如YOLOv8-nano)或降低帧率(至15 fps)仍保持实用性能,为产业化部署提供了灵活性。
研究结论与讨论
本研究成功开发了一种适用于商业化海水鱼养殖场的计算机视觉呼吸频率监测方法。该方法的核心优势在于其专为真实养殖环境设计,直接利用现有摄像头设施,无需特殊设备或侵入式操作,即可实现高效、定量化的群体健康监测。通过大规模数据训练和高精度目标检测与跟踪技术,方法在复杂环境下仍能保持优异性能,呼吸频率估算与真实值高度相关(r=0.82)。
其重要意义在于为养殖业提供了首个经真实生产环境验证的呼吸频率自动监测工具,有望彻底改变传统依赖人工、有创且滞后的健康检查方式。通过早期识别呼吸窘迫网箱,养殖者可以优先安排详细检查,从而减少不必要的鱼类应激和处理成本,提升动物福利水平。此外,该方法具备处理大规模数据的能力(单GPU每日可分析120个网箱),计算成本可控,易于整合进现有养殖管理流程。
随着养殖业向离岸深海拓展,人力巡检成本增加、环境挑战加剧,此类自动化、基于人工智能的监测工具将变得不可或缺。未来研究方向包括将该方法推广至其他鱼种,探索轻量级模型以实现边缘设备部署,进一步降低带宽与能耗需求,助力可持续水产养殖的健康发展。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号