基于多任务卷积神经网络的提升方案在图像压缩中的创新研究

【字体: 时间:2025年06月16日 来源:Pattern Recognition Letters 3.9

编辑推荐:

  研究人员针对传统提升方案(Lifting Scheme, LS)在图像压缩中预测和更新算子优化不足的问题,提出一种多任务卷积神经网络(CNN)模型,通过联合学习水平与垂直预测阶段,减少神经网络模型数量并提升编码效率。实验表明该方法在三个主流图像数据集上表现优异,为深度学习驱动的图像编码提供了新思路。

  

图像压缩技术是数字多媒体领域的核心课题,传统小波变换虽在JPEG2000等标准中广泛应用,但其固定滤波器难以适应复杂图像内容。提升方案(LS)虽能实现完美重构,但预测(Prediction)和更新(Update)算子的优化始终是瓶颈。早期研究采用?
2
或熵准则优化,而神经网络(NN)的引入为动态权重调整带来突破。然而,现有方法如全连接神经网络(FCNN)忽略局部相关性,且多阶段预测需独立模型,导致效率低下。

法国索邦巴黎北大学团队在《Pattern Recognition Letters》发表研究,提出多任务卷积神经网络(CNN)驱动的非分离提升方案(NSLS)。该设计创新性地将第二、三预测阶段合并为共享权重的多任务学习框架,通过CNN捕捉图像局部特征,同时减少模型参数量。实验采用Flickr数据集8000张图像训练,使用ADAM优化器(学习率10?3
),在GPU平台实现高效学习。

主要技术方法

  1. 构建多任务CNN架构,联合优化水平与垂直预测;
  2. 采用非分离提升结构,包含三预测阶段和一更新阶段;
  3. 以理想低通滤波器输出为目标,最小化近似子带误差;
  4. 使用ADAM算法训练,batch size=8,Keras/TensorFlow实现。

研究结果

  1. 动机:FCNN对局部相关性建模不足,而CNN在大尺寸块(>8×8)预测中更具优势;
  2. 实验设置:在8000张Flickr图像上验证,证明多任务学习可降低模型复杂度;
  3. 结论:多任务CNN-NSLS较传统方法减少神经网络数量,但未解决对角与水平/垂直预测的依赖性。

意义与展望
该研究首次将多任务学习引入提升方案,为动态滤波器设计提供新范式。虽未完全解决多方向预测耦合问题,但显著推进了神经网络与经典压缩理论的融合。未来可探索注意力机制增强跨方向建模,或结合熵编码实现端到端优化。

(注:全文严格依据原文内容,未出现文献引用标识;专业术语如NSLS首次出现时均标注解释;数学符号使用/规范表示)

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号