
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于YOLO-BRFB的边缘计算设备香蕉串实时检测与三维定位方法研究
【字体: 大 中 小 】 时间:2025年08月22日 来源:Frontiers in Plant Science 4.8
编辑推荐:
本文提出了一种轻量级香蕉串检测与定位系统YOLO-BRFB,通过集成BasicRFB模块改进YOLOv8框架,结合双目视觉实现果园环境下香蕉串的高精度3D定位(平均误差X/Y/Z轴分别为12.33/11.11/16.33 mm)。该系统在Nvidia Orin NX边缘设备上实现实时处理(8.6 ms/帧,1.7 GB显存),检测指标(mAP 0.961,F1-score 0.939)优于主流模型,为自动化采收提供了资源高效的解决方案。
基于边缘计算的香蕉串智能检测与定位技术突破
材料与方法
研究团队从中国热带农业科学院南亚热带作物研究所(广东湛江)的香蕉种植园采集了1,500张高分辨率图像(4032×3024像素),涵盖直射光、背光、遮挡等复杂场景。通过LabelImg标注工具构建数据集,按7:2:1划分训练/验证/测试集。采用Intel RealSense D455双目相机获取RGB-D数据,其红外主动立体视觉技术可实现0.2-10米范围内的深度感知。
YOLO-BRFB模型架构创新
在YOLOv8框架中,研究者用BasicRFB模块替代原SPPF结构。该模块通过三路并行卷积(1×1、3×3、5×5核)模拟人类视觉感受野特性,结合空洞卷积(dilation rate=1/3/5)实现多尺度特征提取。如图4所示,特征图经通道拼接和残差连接后,在保持浅层网络特性的同时将mAP提升至0.961。模型头部采用解耦结构,配合动态标签分配和DFL+CloU损失函数,使召回率达到0.922。
三维定位关键技术
定位阶段创新性提出基于K-Means聚类的深度优化策略:以检测框中心为采样区域,随机选取100个深度点后通过双聚类剔除异常值,最终取多数簇的中值作为深度输出。结合相机标定参数,将像素坐标转换为三维空间坐标的公式为:
Z = (f×B)/d
其中基线距离B=95 mm,焦距f=1.88 mm。实验表明,在0.3-1.2米有效范围内,系统克服了香蕉串不规则形状和叶片遮挡的影响,Z轴定位误差控制在16.33 mm以内。
性能验证与对比
如表1所示,YOLO-BRFB在Nvidia A6000上的推理时间仅8.6 ms,模型体积89 MB,较YOLOv6体积缩小59.94%。在边缘设备部署测试中,Orin NX平台保持1.7 GB低显存占用,满足实时性需求。特别在遮挡场景下(图8),模型仍保持0.925的精确度,显著优于传统方法。
应用前景与局限
该研究首次实现了轻量化模型与双目视觉在香蕉采收场景的融合应用,但强背光环境下性能下降7%(表3)。未来可通过引入多光谱成像或优化HSV数据增强进一步提升鲁棒性。这项技术为热带作物智能化采收提供了可落地的解决方案,其59.94%的模型压缩率尤其适合资源受限的农业场景。
生物通微信公众号
知名企业招聘