基于深度强化学习的车联网边缘计算联合优化策略:任务卸载与资源分配研究

【字体: 时间:2025年06月18日 来源:Sustainable Computing: Informatics and Systems 3.8

编辑推荐:

  针对车联网(IoV)计算能力不足导致的任务处理延迟问题,研究人员提出基于深度强化学习(DRL)的移动边缘计算(MEC)联合优化模型。通过构建马尔可夫决策过程(MDP)框架,整合任务卸载决策与多路侧单元(RSU)资源分配,实验表明该方案能显著降低30个车辆节点的端到端延迟和计算成本,为智能交通系统提供新思路。

  

随着城市化进程加速,智能车联网(IoV)面临严峻挑战:车辆本地计算能力有限导致实时任务(如自动驾驶决策、交通预测)处理延迟,可能引发交通事故;而传统云计算因传输距离远难以满足低延迟需求。尽管移动边缘计算(MEC)通过将计算资源下沉至路侧单元(RSU)缓解了部分压力,但动态环境中多车辆竞争有限边缘资源时,服务质量(QoE)仍难以保障。现有基于博弈论或动态编程的卸载方法无法适应车辆移动性带来的环境变化,而深度强化学习(DRL)在动态优化中展现出潜力但存在探索效率低等问题。

沙特阿拉伯北部边境大学等机构的研究人员在《Sustainable Computing: Informatics and Systems》发表研究,提出基于深度Q网络(DQN)的联合优化策略。该研究构建多RSU覆盖场景下的马尔可夫决策过程(MDP)模型,集成状态空间(车辆位置、任务队列)、动作空间(卸载决策、资源分配)和奖励函数(延迟与成本加权),通过离线训练与在线调度实现动态优化。关键技术包括:1) 多智能体DRL框架处理异构RSU环境;2) 基于MDP的联合优化建模;3) 数值仿真验证30节点场景性能。

Proposed system model
建立包含k个MEC服务器的多小区网络,中央控制器协调任务卸载与资源分配。模型将车辆移动性、任务到达动态性转化为MDP状态变量,通过DQN探索最优策略,解决传统方法在动态环境中适应性差的问题。

Simulation results and discussions
仿真显示,相比基线方案,该模型在平均延迟降低56%的同时,收敛速度提升显著。特别在高密度场景(如交通高峰期的交叉路口),资源分配效率较传统贪婪算法提高32%,验证了DRL在动态资源争用场景的优势。

Conclusion
研究证实DRL能有效协调IoV环境中的计算卸载与资源分配矛盾。创新性体现在:1) 首次将多RSU协作纳入联合优化框架;2) 通过加权成本函数平衡延迟与资源开销;3) 为5G-MEC网络中的实时任务调度提供新范式。未来可扩展至无人机(UAV)辅助网络等更复杂场景。

该研究的实际意义在于:为自动驾驶紧急决策(如LiDAR数据处理)提供毫秒级响应保障,通过优化交通预测任务的分区卸载降低城市拥堵率。理论层面,提出的MDP建模方法为异构网络资源调度开辟了新路径,其"探索-利用"平衡机制对医疗物联网等实时系统亦有借鉴价值。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号