基于车辆重调度策略与增强型A3C深度强化学习的车联网云边协同多目标任务调度优化

【字体: 时间:2025年06月04日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  为解决车联网(VANET)中任务调度存在的端到端延迟(EED)高、资源利用率低等问题,研究人员提出融合车辆重调度(VR)策略与改进异步优势演员-评论家(A3C)深度强化学习(DRL)的云边协同调度系统。该系统通过神经网络分类延迟敏感型与计算敏感型任务,结合VR策略优化车辆资源分配,实现EED降低12.04%、资源利用率提升49.58%的突破性成果,为智能交通系统提供高效调度方案。

  

随着智能交通系统的快速发展,现代城市车辆产生的数据量呈爆炸式增长,这对车联网(Vehicular Ad Hoc Networks, VANET)的任务调度能力提出了严峻挑战。虽然车载云计算网络(Vehicular Cloud Networks, VCN)能提供强大的计算能力,但其远程服务模式导致端到端延迟(End-to-End Delay, EED)居高不下;而车载边缘网络(Vehicular Edge Networks, VEN)虽能降低延迟,却又受限于边缘服务器的有限资源。这种"鱼与熊掌不可兼得"的困境,使得如何平衡延迟敏感型与计算密集型任务的需求,成为制约智能交通发展的关键瓶颈。

针对这一难题,研究人员在《Engineering Applications of Artificial Intelligence》发表了一项创新性研究。该团队设计了一个融合云边计算的协同网络系统,其核心是改进的异步优势演员-评论家(Asynchronous Advantage Actor-Critic, A3C)深度强化学习(Deep Reinforcement Learning, DRL)算法。研究采用三大关键技术:(1)基于任务属性的二元神经网络分类系统,将应用划分为延迟敏感型与计算敏感型;(2)车辆重调度(Vehicle Repacking, VR)策略,通过动态调整车辆在网络中的位置分布来优化资源负载;(3)增强型A3C算法,建立马尔可夫决策过程(Markov Decision Process, MDP)模型处理动态任务调度问题。

研究结果部分,《CENS analytical models》章节构建了云边网络协同框架,通过数学建模量化了EED与资源利用率的关系。《Problem formalization》将任务调度转化为多目标优化问题,定义状态空间包含CPU/内存/I/O需求等12维参数。《Algorithm description》提出的双算法架构,使任务调度时间缩短至传统方法的31%。《Performance evaluation》显示:相比基线算法,EED降低12.04%,资源利用率提升49.58%,服务质量(Quality of Service, QoS)提高58.76%,数据包丢失减少46.33%,系统开销下降71.94%。《Statistical data analysis》证实该方案在动态环境下稳定性优于DDPG、DDQNEC等对比算法。

这项研究的突破性在于:首次将VR策略与改进A3C-DRL结合应用于车联网调度,通过"分类-重调度-协同处理"的三阶段架构,实现了云边资源的智能协同。其创新点体现在:(1)任务分类神经网络可识别应用特性,为调度决策提供先验知识;(2)VR策略创造性地将车辆位置作为可调节资源,突破了传统资源分配模式的局限;(3)改进A3C算法通过集中训练-分布式执行的架构,有效应对车辆移动性带来的状态空间爆炸问题。该成果不仅为智能交通系统提供了可落地的解决方案,其方法论对工业物联网、5G边缘计算等领域的资源调度问题也具有重要借鉴价值。未来研究可进一步探索区块链技术与该框架的结合,以增强跨主机数据传输的安全性。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号