
-
生物通官微
陪你抓住生命科技
跳动的脉搏
用于训练深度学习模型的数据相关参数选择,该模型可预测云环境中应用程序性能的下降
《IEEE Transactions on Cloud Computing》:Data-Related Parameter Selection for Training Deep Learning Models Predicting Application Performance Degradation in Clouds
【字体: 大 中 小 】 时间:2025年11月13日 来源:IEEE Transactions on Cloud Computing 5
编辑推荐:
针对云环境中应用程序性能下降问题,本文提出一种基于代理的多目标优化算法,旨在提升机器学习预测模型的准确性同时减少数据采集和存储资源消耗。通过在5G核心网络和Kubernetes云平台上的应用案例验证,该算法在Pareto前沿上的超体积达到99.5%,较传统方法减少3.58小时优化时间,显著提升资源利用效率。
下一代电信网络中的云环境需要满足新兴应用程序在延迟、可靠性和吞吐量方面的严格要求[1]、[2]、[3]。然而,由于各种基础设施故障或资源分配问题(如服务器硬件故障、资源竞争、负载均衡器配置错误、网络拥塞以及云管理系统调度问题),这些应用程序容易出现性能下降,从而导致服务质量(QoS)下降或服务中断[4]、[5]、[6]、[7]。为了保持部署在云环境中的应用程序的预期可用性和性能,主动管理应用程序的性能下降至关重要,这可以通过预测性能下降并采取预防措施来实现[8]、[9]。利用基于云基础设施和应用程序的性能指标数据训练的机器学习(ML)模型,可以为应用程序性能下降问题提供一种主动应对的方法。这些模型能够提取洞察并预测潜在的性能下降,从而及时采取预防措施,以维持服务的可用性和性能[8]。