综述:深度学习在计算机生成全息术中的应用

【字体: 时间:2025年05月08日 来源:iScience 4.6

编辑推荐:

  这篇综述系统阐述了深度学习(DL)与计算机生成全息术(CGH)的交叉创新,重点分析了数据驱动模型、物理驱动模型和联合优化模型三大框架如何突破传统CGH在计算效率与重建质量间的权衡难题,并展望了面向增强现实(AR)/虚拟现实(VR)的高保真实时全息显示前景。

  

深度学习赋能计算机生成全息术的革命性进展

基础原理与学科融合

计算机生成全息术(CGH)通过数值计算模拟光波前记录过程,可生成包含振幅和相位信息的全息图。传统算法如Gerchberg-Saxton(GS)迭代法虽能优化相位分布,但存在收敛慢、散斑噪声等问题。深度学习(DL)凭借多层神经网络(DNN)的通用逼近能力,为CGH提供了端到端解决方案,其中卷积神经网络(CNN)和U-Net成为处理图像类全息数据的首选架构。

三大技术框架的突破

  1. 数据驱动模型:依赖标记数据集,如MIT-CGH-4K-V1数据集,通过监督学习实现快速全息图生成。代表性工作Tensor Holography V1利用残差网络(ResNet)在40ms内生成1080p全息图,PSNR达34dB。
  2. 物理驱动模型:将衍射传播方程嵌入网络,如HoloNet通过双向光传播实现无监督训练,克服了标签依赖限制。4K-DMDNet结合亚像素卷积,实现4K分辨率下20.49dB PSNR。
  3. 联合优化模型:整合硬件校准,如神经全息术(CITL)通过Zernike多项式建模SLM像差,实验PSNR提升2.5dB。Meta表面波导设计进一步压缩AR眼镜体积,实现23.32dB显示质量。

关键技术挑战

  • 网络设计:视觉Transformer(ViT)虽能捕捉全局特征,但O(N2)复杂度制约实时性;Vision Mamba(ViM)通过状态空间机制将复杂度降至O(N)。
  • 感知优化:焦频损失(FFL)和多尺度结构相似性(MS-SSIM)联合优化,显著提升高频细节重建。
  • 硬件适配:部分相干光源(LED)和超表面器件协同设计,抑制散斑并扩展视场角至120°。

未来方向

  1. 物理可解释网络:开发复数域CNN和光学先验模块,提升相位编码的物理合理性。
  2. 轻量化架构:结合知识蒸馏和低比特量化,实现8K@120Hz实时生成。
  3. 真三维显示:探索神经辐射场(NeRF)与全息层析融合,突破现有RGBD分层限制。

该领域正从算法创新向系统工程跨越,2024年问世的Meta表面AR眼镜原型标志着商业化进程加速,而深度学习的持续迭代将为全息显示打开元宇宙入口提供核心驱动力。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号