
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于YOLOv11-OBB的定向边界框检测提升机器人抓取精度研究
【字体: 大 中 小 】 时间:2025年06月16日 来源:Heliyon 3.4
编辑推荐:
为解决机器人抓取精度与实时性难以兼顾的问题,研究人员创新性地将目标检测模型YOLOv11-OBB应用于抓取检测领域,通过定向边界框(OBB)参数直接映射抓取位姿,结合数据增强技术提升泛化能力。实验表明,该模型在Cornell抓取数据集上达到98.5%准确率,推理速度仅29毫秒,显著优于ResNet-50、GraspNet等现有方法,为动态环境下的工业机器人应用提供了高效解决方案。
在工业自动化和智能机器人领域,精准抓取是实现自主操作的核心挑战。传统方法依赖几何计算,存在环境敏感、泛化性差等缺陷;而基于深度学习的方案又常面临速度与精度难以平衡的困境。现有模型如ResNet-50或GraspNet虽有一定成效,但要么计算耗时,要么在复杂场景中表现欠佳。更棘手的是,多目标抓取和遮挡场景下的检测仍缺乏可靠解决方案。
针对这些痛点,研究人员开展了一项突破性研究,将目标检测领域的先进模型YOLOv11-OBB创新性应用于抓取检测任务。该研究的关键在于发现定向边界框(OBB)的参数结构与机器人抓取位姿参数高度吻合——边界框中心点对应抓取位置,旋转角度映射夹爪方向,宽度反映夹爪开合距离。通过改造模型输出层并采用单一标签标注策略,实现了从图像输入到最优抓取位姿的端到端预测。
研究团队采用Cornell抓取数据集(885张图像)和自建多目标数据集(20类物体)进行训练,运用旋转、裁剪等数据增强技术将样本量扩展10倍。模型通过联合评估抓取点距离误差(<20°角度容差)、交并比(IoU)和置信度(阈值0.3)三重指标,确保预测结果的稳定性。
研究结果显示,YOLOv11-OBB在单物体抓取中实现98.5%的准确率,mAP50达99.4%,推理速度仅29毫秒。相较于对比模型,其优势显著:比ResNet-50×2快3.5倍且精度提升9.3个百分点;虽略慢于GR-ConvNet-RGB(19ms),但准确率高出1.9%。更引人注目的是其泛化能力——对训练未见物体仍能保持0.7以上的抓取质量评分(Q值),在复杂背景和遮挡场景中表现稳健。
这项发表于《Heliyon》的研究为机器人抓取领域提供了新范式:通过目标检测框架的迁移创新,首次实现抓取参数与OBB参数的统一建模。其意义不仅在于创纪录的性能指标,更在于证明了轻量化模型在实时控制场景的可行性。未来通过域随机化(Domain Randomization)和自监督学习等技术持续优化,有望进一步推动工业机器人在非结构化环境中的实用化进程。
生物通微信公众号
知名企业招聘