百层光子深度学习:突破误差累积限制的单层光子芯片实现大规模人工智能模型

《Nature Communications》:Hundred-layer photonic deep learning

【字体: 时间:2025年11月25日 来源:Nature Communications 15.7

编辑推荐:

  在人工智能时代,传统光学神经网络因模拟计算固有的误差累积问题,其网络深度被限制在十层左右,难以支撑大语言模型等先进计算需求。清华大学团队通过引入片上扰动解耦计算相关性,开发出误差容忍的单层光子计算芯片,成功构建了超过200层的深度网络,在10 GHz数据速率下实现了百层图像分类和亿级参数大语言模型,性能与理想仿真相当。这项研究为高效模拟计算硬件运行先进深度学习模型开辟了新途径。

  
在人工智能蓬勃发展的今天,复杂的计算模型对算力提出了前所未有的需求。然而,传统的数字电子计算设备在速度和能耗方面逐渐逼近极限,难以满足日益增长的深度学习模型规模需求。在这一背景下,光子计算作为利用光进行高效计算的物理介质,展现出巨大潜力。光学神经网络因其大带宽和高并行性优势,被视为实现高性能人工智能计算的有力候选者。
但现有光学神经网络面临着一个根本性挑战:由于光学模拟计算固有的误差累积问题,当网络深度增加时,计算结果会显著偏离理想仿真。这种误差累积主要源于多层传播冗余和误差放大的非线性层,导致现有光学神经网络的深度被限制在十层左右,无法满足大语言模型等先进人工智能任务的需求。
为了解决这一难题,清华大学电子工程系的研究团队在《Nature Communications》上发表了一项突破性研究。他们发现误差累积源于传播冗余,通过引入片上扰动来解耦计算相关性,成功开发出误差容忍的单层光子深度学习芯片,将光学神经网络的空间深度从毫米级扩展到百米级,实现了三维芯片集群。
研究人员采用的关键技术方法包括:基于硅基光电子平台的单层光子芯片设计与制造,通过热光相位调制器实现波前调控;利用波长复用技术将输入数据编码到多波长光强度上;开发检测扰动非线性激活函数来解耦信号与误差;采用专用控制板实现权重加载和信号处理;并通过芯片集成实现厘米至百米尺度的空间传播计算。实验验证使用了ImageNet-1000数据集进行图像分类,以及基于Wikipedia语料库的大语言模型训练。
误差容忍的单层光子计算
传统光学神经网络在芯片上实现一层需要多层物理传播和非线性激活,误差随着层数增加而放大。研究团队提出的单层光子计算芯片通过引入扰动噪声打破波长相关性,实现了任意矩阵的构建。数学上表示为Wi=|G0Φ?i|2,其中Φ?kk·ejn2πΔk/λi。同时,通过检测端的模拟-数字转换实现误差隔离非线性函数,满足ε(((W+ΔW)(X+ΔX))D)≤ε0的误差约束准则。
单层计算的深度矩阵乘法
实验验证表明,扰动注入使SLiM芯片能够实现任意大小的矩阵,同时保持完整的自由度。研究人员测量了128个空间波导通道的相位-电压动力学特性,调制范围为0.4V。不同波长在空间和频谱域都表现出随机起始相位,实现了215.16(仿真)和244.32(实验)的活动与非活动状态比。通过逐步增加输入尺寸,全自由度矩阵的归一化均方误差显著降低至0.41%(输入尺寸2)至0.03%(输入尺寸16),而无扰动的方法误差高达4.59%至17.57%。
误差容忍评估显示,8维输出的最大平均误差为0.16%。在10小时的时间稳定性测量中,平均误差保持在1.0%以下。通过分析200层在不同高斯噪声水平(5%/10%/20%)下的乘法误差,发现无扰动的多层结果误差最终达到41.5%/48.8%/50.7%,而单层乘法误差保持在0.76%/33.5%/44.5%以下。当噪声水平超过6.5%标准差时,多层光子计算的错误率达到50%,性能退化至随机猜测水平。
超越空间深度极限的单层深度计算
SLiM芯片的片间计算支持从厘米到百米尺度的连接。通过将K个芯片组合成一个单元,自由度增加K倍,空间深度可进一步扩展至公里级,实现具有三维计算连接的光学神经网络芯片集群。
研究人员开发了一个两层光学神经网络对MNIST数据集进行分类,以评估误差容忍计算配置的空间能力。在0.1m/5m/45m的空间深度下,分类准确率分别达到95.75%/95.76%/95.53%。通过集成16个芯片,分类准确率提高至95.78%。空间衍射极限由DL=DinDout/λ公式描述,其中Din、Dout分别表示输入和输出孔径。
超越深度极限的光学神经网络实现先进人工智能
研究团队构建了用于ImageNet-1000完整数据集分类的深度神经网络,包括18层、34层和100层的误差容忍(单层计算)和非误差容忍(多层计算)光学神经网络。
实验结果表明,在无噪声情况下,单层和多层网络的top-5准确率分别达到85.9%和93.0%。但当引入5%标准差的高斯噪声时,多层网络的准确率骤降至37.0%。噪声标准差增加至10%/20%时,其准确率在第二/十层进一步降至2.2%/1.2%。相比之下,单层网络表现出85.5%/85.6%/81.2%的准确率。只有当噪声达到50%标准差时,单层网络的准确率才显著下降至16.4%。
在高速性能评估中,误差容忍的18层/34层/100层光学神经网络在1/5/10 GHz下稳定实现80.9%/83.8%/85.9%的高准确率。即使在10 GHz最高速度下,准确率仍保持在80.4%/83.2%/85.4%,与理想仿真相比仅下降0.48%。而多层光学神经网络性能显著下降,在1 GHz下准确率仅为3.6%/10.6%/15.5%。
亿级参数误差容忍光学神经网络
研究人员还开发了基于Transformer架构的大语言模型,参数规模从500万至3.45亿不等,对应网络深度为8/16/32/48/96层。
随着模型规模增大,平均损失从500万参数模型的4.91降至3.45亿参数模型的3.04,预测准确率从28.58%显著上升至43.92%。缩放规律分析显示参数数量与损失值之间存在强Pearson相关性(0.9956),符合L=βN函数,其中β为5.97,α为0.116。
此外,研究团队还开发了包含16个块和64层的误差容忍SLiM模型,用于生成256×256像素的条件图像。在实验中,六个类别的错误率保持在37.2%-42.1%之间。通过计算FID特征与真实ImageNet分布的距离,发现无噪声和0.2-Std噪声模型的平均误差分别为0.019/0.012,标准差为0.027/0.028,而0.5-Std噪声模型显示出更大的平均误差-0.078,标准差为0.089。
研究结论与讨论部分强调,深度误差容忍SLiM芯片兼具可扩展重构性和强大误差校正能力,突破了当前光学计算系统深度受限的瓶颈,实现了超过100层的深度光学神经网络。该技术能够支持亿级参数的通用生成模型,在多种模态下实现与数字实现相当的性能,满足复杂机器学习框架的需求。
这项研究的重要意义在于,单层芯片通过制造后集成消除了空间限制,展示的16芯片组能够在10 GHz频率下执行Peta级操作每秒。系统的误差容忍能力能够承受至少20%标准差的输入噪声,甚至高达44%标准差,这与亚太赫兹光电子设备中遇到的信号波动良好匹配。此外,芯片集成支持从厘米到公里尺度的可扩展计算,有望开发包含百万级芯片的ZettaOPS超级计算集群。这一进展超越了现有小芯片技术的平面连接限制,利用数据传播的广泛性,单层芯片可以充分利用物理过程的固有计算能力,可能集成数万亿个物理节点,从而转变为无处不在的智能计算网络。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号