编辑推荐:
在机器人抓取领域,评估软物体抓取状态颇具挑战。研究人员开展 “Soft objects grasping evaluation using a novel VCFN-YOLOv8 framework” 研究,构建 VCFN-YOLOv8 框架,分类准确率达 99.51% 。该成果为相关领域提供新方案,意义重大。
在当今科技飞速发展的时代,机器人在服务和生产行业的应用越来越广泛,其抓取能力备受关注。对于机器人灵巧手而言,高效准确地评估抓取状态是提升整体抓取质量的关键环节。然而,在软物体抓取评估方面,却面临着诸多难题。
以往传统的机器人手臂灵巧手抓取质量评估,大多聚焦于物体因过度抓取导致的滑动和变形,主要依赖视觉和力反馈。但这种方式在面对软物体时,效果并不理想。因为软物体具有特殊的材料属性,其在变形过程中弹力反馈变化不明显,而且由于非线性和非结构化的特性,在接触时形状不稳定,常规的触觉反馈方法难以获取清晰一致的信息。所以,找到一种更可靠的软物体抓取状态评估方法迫在眉睫。
为了解决这些问题,来自未知研究机构的研究人员开展了一项极具创新性的研究。他们提出了一种基于 YOLOv8 的新型视觉 - 曲率融合网络(VCFN-YOLOv8),用于评估各种软物体的抓取状态。研究结果显示,该框架在四种不同抓取状态下的分类准确率高达 99.51% ,并且在对陌生物体的抓取状态评估实验中,准确率达到了 92% 。此外,在对可变形物体的自适应抓取扩展验证中,实验装置能在 6 秒内完成自适应抓取。这些成果表明,VCFN-YOLOv8 在评估软物体抓取状态方面准确高效,且对非软物体也有一定的通用性。这一研究成果发表在《Biomimetic Intelligence and Robotics》上,为机器人软物体抓取评估领域带来了新的突破。
在研究方法上,研究人员主要采用了以下关键技术:首先,构建了视觉曲率数据集(VCDS),通过对 9 种不同软物体进行大量抓取和提升实验来获取数据,实验过程中从不同相机角度采集视觉和曲率数据。其次,设计了 VCFN-YOLOv8 框架,该框架包含预处理、特征提取、特征融合和分类模块。其中,利用 YOLOv8 进行视觉特征提取,通过特定的曲率特征提取模块处理曲率数据,最后将两者特征融合进行抓取状态分类。
研究结果方面:
- 数据集构建:通过对不同软物体在多种条件下的抓取实验,构建了 VCDS 数据集,包含 8,000 单帧视觉图像和 160 组曲率信号序列样本。
- 性能测试:进行了结构、序列长度、模态和方法的对比实验。结构对比发现 YOLOv8m-cls 模型分类性能最佳;序列长度对比得出输入序列长度为 16 时模型性能最好;模态对比显示视觉 - 曲率融合感知比单模态感知效果更好;方法对比表明触觉方法在软物体感知上不如曲率方法和 V-C 融合方法。同时,计算出该框架的计算效率为 26.3fps。
- ** generalization 实验 **:在抓取状态评估实验中,对软空心泡沫和一次性纸杯的抓取状态评估准确率分别达到 96% 和 88%;在自适应抓取实验中,机器人手臂的夹爪能通过模型反馈成功实现对软空心泡沫和一次性纸杯的适当抓取。
研究结论表明,VCFN-YOLOv8 融合方法有效提升了软物体抓取评估效果。该框架使用 YOLOv8m-cls 结构,通过跨模态特征提取和属性关联机制实现了视觉和曲率信息的有机融合。同时,VCDS 数据集的建立也验证了模型的有效性和准确性。这一研究成果具有重要意义,它为双模态信息融合领域的抓取评估任务提供了新的解决方案,可广泛应用于车间物体分拣、质量检测等领域。此外,该研究也为后续探索更符合人类感知特征的信息融合模型奠定了基础,比如视觉、嗅觉和触觉融合感知的研究方向。