编辑推荐:
针对现有量子扩散模型在量子硬件实现上的挑战,研究人员开展优化量子隐式去噪扩散模型(OQIDDM)研究,结合优化量子隐式神经网络(OQINNs)与一致性模型(Consistency Models),在多数据集上表现优于现有模型,为量子生成任务提供新方向。
在计算机视觉领域,图像生成始终是研究的核心方向之一,其应用场景从合成数据创建到艺术创作等不一而足。经典的生成模型如稳定扩散(Stable Diffusion)等已在诸多领域展现出强大的技术优势,但随着量子计算技术的发展,如何将生成模型与量子计算结合成为新的研究热点。量子生成模型作为经典生成模型在量子机器学习领域的量子模拟,虽具备潜在的数据生成优势,但现存模型如量子生成对抗网络(QGANs)面临收敛困难、模式崩溃等问题,而量子去噪扩散模型(QDDMs)虽尝试解决这些局限,却因依赖混合 U-net 架构或含迹消除测量的混合态操作,在当前量子硬件上实现难度大,且存在训练速度慢、参数多、对复杂数据集应用不足等问题。在此背景下,为突破现有量子生成模型在噪声中等规模量子(NISQ)设备上的应用瓶颈,提升图像生成质量与效率,国内研究人员开展了相关研究,其成果发表在《Future Generation Computer Systems》。
研究人员提出了优化量子隐式去噪扩散模型(OQIDDM),该模型将所提出的优化量子隐式神经网络(OQINNs)与一致性模型(Consistency Models)相结合。关键技术方法包括:利用 OQINNs 优化现有量子隐式神经网络的复杂结构,通过 OQINNs 对多时间步的图像数据分布进行建模,借助一致性模型实现 O (1) 采样步骤,在正向扩散过程仅采用经典高斯噪声扰动输入样本,反向去噪过程运用优化后的量子隐式神经网络。研究在 MNIST、Fashion-MNIST、E-MNIST 等数据集以及面部图像生成任务上开展,并在三种不同的超导量子计算机上进行实验。
实验与基线设置
研究在 MNIST、Fashion-MNIST、EMNIST 数据集上评估模型有效性与效率,将 OQIDDM 与最新量子去噪扩散模型 Qdense(量子神经网络含 1.8k 参数)对比,同时设计角度编码的量子神经网络(QNN,含 576 参数)作为对照组,OQIDDM 与 QNN 量子网络结构相近且参数数量相同。
模型性能表现
实验结果表明,在 MNIST、Fashion-MNIST、E-MNIST 数据集上,OQIDDM 在图像质量方面优于现有量子扩散模型,且量子神经网络参数更少。与最先进的量子生成对抗网络模型 PQWGAN 及经典生成对抗网络(如 WGAN-GP)相比,OQIDDM 在相同图像生成任务中显著提升图像生成质量,同时大幅减少训练参数。在面部图像生成任务中,OQIDDM 首次将量子去噪扩散模型应用于复杂数据集,以极少的量子神经网络参数取得了令人印象深刻的结果。对量子噪声效应的分析以及在三种不同超导量子计算机上的实验结果,进一步凸显了 OQIDDM 在量子生成任务中的巨大潜力。
模型结构优势
OQIDDM 结构类似经典去噪扩散模型(DDMs),包含正向扩散和反向去噪过程。正向过程仅使用经典高斯噪声逐步扰动输入样本,反向去噪过程利用优化后的量子隐式神经网络,通过离散时间步的噪声样本进行训练,学习连续扩散过程的映射函数,减少了对每个时间步单独训练参数化量子电路(PQCs)的依赖,降低了网络参数数量,训练后采样过程可通过酉矩阵在 O (1) 步内高效执行,简化了现有模型在量子计算机上的复杂去噪步骤。
研究结论表明,OQIDDM 通过结合 OQINNs 的强表示能力与一致性模型的采样优势,更适合 NISQ 量子设备,实现了更高的图像生成质量。该模型在参数效率、图像生成质量及复杂数据集应用等方面突破了现有量子生成模型的局限,为量子计算与图像生成领域的结合提供了新的有效途径,展现了量子生成模型在实际应用中的广阔前景,对推动量子机器学习在计算机视觉领域的发展具有重要意义。