基于强化学习与双种群协同进化(RL-NSGA-DP)算法的移动机器人风电叶片磨削轨迹规划与站位优化研究
【字体:
大
中
小
】
时间:2025年10月02日
来源:Experimental Parasitology 1.6
编辑推荐:
本文针对大型风电叶片(WTB)移动机器人(MR)磨削加工中的机器人站位规划(RPTA)与轨迹分配问题,提出了一种集成强化学习与双种群协同进化的多目标优化算法(RL-NSGA-DP)。该研究建立了以加工时间最小化和机器人可操作性最大化为目标的数学模型,通过双层元变量编码和自适应种群切换策略,有效解决了传统方法易陷入局部最优的问题,为复杂曲面智能制造提供了创新性解决方案。
固定式机器人在工作单元中的安装与移动机器人(MR)的站位规划是两个科学方法高度相关的问题。为应对不断变化的生产环境,研究者提出了多种优化方法。Ren等人(Ren et al., 2016)开发了一种两步算法用于大型工件喷涂的门式机器人站位优化:第一步离散计算可行站位,第二步通过非线性规划精细化位姿。类似地,Hwang和Watterberg(Hwang and Watterberg, 1996)提出基于任务可达性分析的机器人站位选择方法。近年来,进化算法因其全局搜索能力被广泛应用于该类问题。例如,Kamrani等人(Kamrani et al., 2009)采用遗传算法(GA)优化机器人工作单元布局;Malhan等人(Malhan et al., 2019)则利用多目标进化算法(MOEA)同时优化机器人站位与轨迹。
在构建机器人站位与轨迹分配优化模型前,需预先规划风电叶片(WTB)的磨削轨迹。首先基于WTB的三维重建CAD模型生成其紧密贴合的方向包围盒(OBB),以磨具直径作为等间距参数ds,沿OBB长轴生成一系列切平面。这些切平面与待磨削曲面相交,形成一系列轨迹线,最终被分割为多个轨迹块用于后续分配优化。
RL-NSGA-DP algorithm for RPTA-MRGWTB
本节提出多目标优化算法RL-NSGA-DP以解决RPTA-MRGWTB问题。首先设计了一种在决策变量可行域内生成初始种群的初始化方法;其次构建了采用不同算子的双种群协同搜索策略:将种群划分为优劣两个子群,分别采用主导-隐性交叉算子和强化学习自适应环境选择机制进行演化,以平衡收敛性与多样性。算法还引入了基于Q学习的状态-动作奖励机制,动态调整搜索策略。
Numerical experiment and case study
为评估RL-NSGA-DP在RPTA-MRGWTB问题上的性能,将其与五种先进算法(NSGA-III、SPEA2+SDE、ISDE+、TS-NSGA-II和RLMMDE)在相同实验环境下对比。测试实例表明,RL-NSGA-DP在超体积指标(HV)和间距指标(SP)上均显著优于对比算法。工程案例进一步验证了该算法在风电叶片磨削车间实际应用中的有效性,优化方案使加工时间降低18.7%,机器人可操作性提升32.4%。
本研究从理论与工程角度探讨了RPTA-MRGWTB问题,建立了考虑实际磨削工艺约束、奇异性避障和碰撞避障的双目标优化模型,开发了独特的编码方案、轨迹分配启发式规则与交叉算子,最终通过融合强化学习与双种群协同进化的改进非支配排序遗传算法(RL-NSGA-DP)实现了高效求解。实验证明该算法在解决复杂制造场景下的多目标优化问题方面具有显著优势。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号