基于分布调制的二进制神经网络图像分类方法研究

【字体: 时间:2025年07月19日 来源:Image and Vision Computing 4.2

编辑推荐:

  为解决二进制神经网络(BNNs)训练中存在的死权重(dead weights)和敏感权重(susceptible weights)问题,研究人员提出了一种分布调制二进制神经网络(DM-BNN)。该方法通过设计死权重正则化(RDW)和峰值导数近似(APSD),有效改善了BNNs的训练效率和分类性能。实验表明,DM-BNN在CIFAR-10和ImageNet数据集上取得了优于现有方法的结果,为边缘设备部署提供了更高效的模型压缩方案。

  

在人工智能技术飞速发展的今天,图像分类作为计算机视觉的基础任务,其重要性不言而喻。然而,随着深度神经网络模型规模的不断扩大,如何在资源受限的边缘设备上高效部署这些模型成为了亟待解决的问题。二进制神经网络(BNNs)因其能将权重和激活值量化为1位数据,理论上可减少32倍的存储需求和64倍的计算开销,成为最具前景的模型压缩方法之一。但BNNs在训练过程中面临着两个关键挑战:死权重(dead weights)和敏感权重(susceptible weights),这些问题严重制约了BNNs的性能表现。

针对这一技术瓶颈,国内某研究机构的研究人员创新性地提出了分布调制二进制神经网络(Distribution-modulated Binary Neural Network, DM-BNN)。该研究通过系统分析BNNs训练过程中的权重分布特性,发现死权重由于幅值过大难以更新符号,而敏感权重则因幅值过小易受伪梯度误导频繁翻转。为解决这些问题,研究人员设计了两项核心技术:死权重正则化(Regularization for Dead Weights, RDW)和峰值导数近似(Approximation with a Peak-Shaped Derivative, APSD)。相关研究成果发表在《Image and Vision Computing》期刊上,为BNNs的训练优化提供了新思路。

研究方法上,团队首先通过理论分析明确了死权重和敏感权重的形成机制。RDW通过引入新的正则化项LD,为死权重提供额外梯度使其能够翻转符号;APSD则采用具有峰值形状导数的近似函数,促进敏感权重的幅值增长。在CIFAR-10和ImageNet数据集上的实验验证了DM-BNN的有效性,特别是在ResNet-20模型上取得了88.0%的准确率,比基线方法Bi-Real Net提升了1.5%。

研究结果部分,"Binary neural networks"章节详细阐述了BNNs的基本原理和计算优势。与传统全精度网络相比,BNNs使用二值化的权重和激活值,将卷积运算转化为高效的XNOR、Bitcount和Shift操作。"Methods"章节展示了DM-BNN的整体框架,RDW通过惩罚远离边界的权重形成紧凑分布,APSD则通过精心设计的近似函数减少敏感权重数量。"Experiments"部分证实,DM-BNN在多个基准测试中均优于现有方法。

结论部分指出,DM-BNN通过调制权重分布有效解决了BNNs训练中的两大难题。RDW成功消除了死权重,APSD显著减少了敏感权重数量,二者协同作用大幅提升了模型性能。这项工作不仅为BNNs的优化提供了新方法,也为边缘计算场景下的模型部署开辟了新途径。未来研究将探索更高效的超参数搜索方法,并将验证任务扩展到图像分割和检测等更复杂场景。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号