
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于双重优化策略(去噪与MCDM加权)的深度学习关键帧提取方法研究
【字体: 大 中 小 】 时间:2025年05月30日 来源:Expert Systems with Applications 7.5
编辑推荐:
针对视频关键帧提取中存在的冗余信息多、语义关联弱等问题,研究人员提出了一种结合去噪(MFOLHSSFTF算法)、多准则决策(MCDM-CRITIC加权优化)和时序建模(RNN-LSTM)的双重优化策略。该方法在HMDB51和UCF101数据集上分别实现82.94%和91.43%的压缩率,F1分数最高提升46.2%,显著提升了关键帧的准确性与语义完整性,为视频摘要、索引等应用提供了高效解决方案。
在互联网视频内容爆炸式增长的今天,如何从海量视频中快速提取核心信息成为巨大挑战。传统关键帧提取方法依赖低层次视觉特征(如颜色、运动),难以捕捉视频帧间的高阶语义关联,导致冗余帧多、关键动作遗漏等问题。例如,体育视频中一个扣篮动作可能跨越数十帧,但现有方法因缺乏时序建模能力,仅能提取离散的静态画面。更棘手的是,视频采集过程中的噪声干扰(如光照变化、运动模糊)会进一步降低特征提取的准确性。
针对这些问题,Vel Tech Rangarajan Dr Sagunthala研发机构的研究人员提出了一种融合双重优化策略的深度学习框架。该研究通过三阶段创新设计:首先采用混合优化算法(Moth Fly Optimization结合Latin-Hypercube Sampling)进行智能去噪,随后引入多准则决策系统(MCDM)与CRITIC加权优化筛选高价值帧,最后利用RNN-LSTM网络建模长程时序依赖。实验表明,该方法在HMDB51和UCF101数据集上的压缩率分别达82.94%和91.43%,F1分数最高提升46.2%,相关成果发表于《Expert Systems with Applications》。
研究采用混合优化算法MFOLHSSFTF(融合飞蛾优化、超立方采样和Softmax函数)进行自适应去噪;通过MCDM-CRITIC与模拟退火算法实现多特征加权排序;利用RNN-LSTM网络建模帧间时序关系。实验使用HMDB51(电影剪辑)和UCF101(动作视频)作为基准数据集。
去噪优化阶段:MFOLHSSFTF算法通过边缘熵变分析有效识别噪声模式,在HMDB51上使边缘信息保留率提升37%,优于传统高斯滤波(仅21%)。
MCDM加权阶段:CRITIC权重优化结合模拟退火算法,将关键帧筛选准确率提高至78.3%,较传统聚类方法(如k-means)提升23%。
时序建模阶段:RNN-LSTM网络成功捕捉到超过200帧的长程动作关联,在TVSum数据集上F1分数达73.8%,显著优于单纯CNN方法(56.2%)。
该研究通过双重优化策略实现了视频关键帧提取的突破:去噪阶段保留语义完整性(边缘熵提升37%),决策阶段优化特征权重(F1分数最高提升46.2%),时序建模解决长程依赖问题。特别在医疗视频分析中,该方法能准确提取病灶演变的关键帧序列,为临床诊断提供可视化支持。未来可扩展至实时视频处理领域,如自动驾驶中的场景理解。
生物通微信公众号
知名企业招聘