《IEEE Transactions on Human-Machine Systems》:QoS assured bandwidth degradation for virtual network embedding in elastic optical networks
编辑推荐:
为缓解EON-VNE在拥塞时因带宽不足导致VN请求大量阻塞,编辑推荐:作者提出QoS assured自适应带宽降级算法,利用流量历史动态调整降级系数k,蒙特卡洛仿真显示其阻断概率显著低于无降级、简单降级与选择降级方案,为提升资源利用率与业务可用性提供新思路。
当高清8K视频、元宇宙沉浸式交互与工业互联网海量传感同时涌入,运营商的弹性光网络(EON)像一条可伸缩的“光纤高速公路”,通过动态调整频隙(FS)宽度轻松承载400 Gb/s乃至Tb/s流量。然而“路宽”并非万能:一旦多条虚拟网络(VN)在同一时段申请大带宽,底层物理链路的可用频隙瞬间被“占满”,后续请求只能被无情阻断,用户体验急转直下。传统思路要么硬等,要么直接拒绝,造成资源闲置与收入流失。能否让“堵在路上”的VN主动“瘦身”,先降低带宽挤进去,再靠延长时间把数据完整送达?更关键的是,这种“瘦身”必须保证传输总量不变(QoS assured),且要随网络拥堵程度自动调节,否则要么过度降级惹恼客户,要么降级不足依旧阻塞。带着这些痛点,Badr Mochizuki团队把目光投向虚拟网络嵌入(VNE)环节,在EON场景下提出一种“会看历史、能自我调节”的带宽降级策略,试图用更小的频隙开销换取更低的阻断概率,同时让业务方“无感”降级。相关成果刊登于《IEICE Communications Express》。
作者首先构建“图对图”模型:底层为含K=14节点、F=21条链路的NSFNET拓扑,每条链路提供64个频隙,节点配备64 CPU槽;上层VN请求按泊松过程到达,需映射fv条虚拟链路、cv枚CPU及bv个频隙,并保持h ms的保持时间。若节点CPU充足而链路上频隙不足,即触发自适应降级机制:各节点持续记录以目的端dest为核心的阻断次数R与总请求数R,实时计算最新阻断概率P;若P高于历史值,说明网络愈发拥堵,算法便下调降级系数k∈(0,1],使实际分配频隙b=b·k进一步减少;反之则上调k,避免过度降级。为补偿带宽收缩,降级路径的保持时间按h=h·(b/max b)同比延长,确保传送总比特数不变,实现QoS assured。
关键技术方法概括为:①基于NSFNET拓扑的蒙特卡洛仿真;②以目的节点为粒度的流量历史统计;③阻断概率驱动的自适应系数k调整;④频隙与保持时间联合降级的QoS保证公式;⑤与无降级、简单降级、选择降级三类基准策略的阻断性能对比。
数值结果与分析
阻断概率 vs. 网络负载:在20–110 Requests/ms区间,自适应降级的整体阻断概率始终最低,比无降级方案下降一个数量级;简单降级因“凡阻塞就降”紧随其后,选择降级仅对高优先级VN降级,效果次之。
降级次数 vs. 网络负载:随负载升高,各类方案降级次数均增加,但自适应降级介于“简单”与“选择”之间,表明其通过动态k值避免无谓降级,把频隙留给后续请求,提升资源复用效率。
降级次数 vs. 阻断概率:当阻断概率从1×10升至1×10,自适应降级的降级曲线斜率最缓,验证其“拥堵感知”能力——轻载时少降,重载时多降,实现精细化控制。
结论与讨论
文章首次将QoS assured带宽降级机制引入EON-VNE,突破传统光路降级仅考虑链路的局限,同时兼顾节点CPU与链路频隙双重约束;通过“历史-现状”对比的自适应逻辑,实现降级幅度与网络拥堵程度实时匹配,既显著降低VN阻断概率,又避免过度牺牲资源。该方案对运营商具有直接吸引力:在无需新增硬件的前提下,可提升10%–30%的VN承载量,延缓资本开支;对终端用户而言,业务虽“慢”却不断,数据完整性得到保证。未来工作可进一步融合机器学习预测流量,或引入分级业务优先级,实现更细粒度的差异化降级。