
-
生物通官微
陪你抓住生命科技
跳动的脉搏
OPONeRF:一种用于鲁棒少样本渲染的单点-单NeRF方法
《INTERNATIONAL JOURNAL OF COMPUTER VISION》:OPONeRF: One-Point-One NeRF for Robust Few-shot Rendering
【字体: 大 中 小 】 时间:2025年12月20日 来源:INTERNATIONAL JOURNAL OF COMPUTER VISION 9.3
编辑推荐:
提出一种One-Point-One NeRF(OPONeRF)框架,通过自适应调整局部点参数和分解点表示为确定性与概率性部分,有效应对少样本渲染中的意外场景变化,在复杂基准测试中优于现有方法。
在本文中,我们提出了一个名为One-Point-One NeRF(OPONeRF)的框架,该框架旨在解决少样本渲染领域中的一个关键且尚未充分探索的挑战:在场景发生意外变化时,保持场景重建的鲁棒性和渲染质量。为了克服这一难题,现有的新型视图合成方法要么需要大量的跨场景训练数据,要么在针对特定场景进行预训练后难以在测试场景变化时保持一致的质量。为了解决这个问题,我们在OPONeRF中采用了一种分而治之的框架,通过个性化适当的点参数来适应局部场景变化,而不是拟合一组对测试场景未见变化不敏感的NeRF参数。此外,为了明确捕捉局部不确定性,我们将点表示分解为确定性映射和概率推理。通过这种方式,OPONeRF学习了可共享的不变性,并在无监督的情况下对训练场景和测试场景之间的意外变化进行了建模。为了验证所提出方法的有效性,我们使用包含前景运动、光照变化和多模态噪声等多种测试场景变化的真实数据和合成数据构建了基准测试,这些挑战比传统的泛化和时间重建基准测试更为复杂。实验结果表明,我们的OPONeRF在各种评估指标上均优于现有的最先进少样本神经渲染方法。我们进一步通过在其他现有的基于泛化的基准测试中进行实验,并将One-Point-One NeRF的思想融入其他先进的基线方法中,证明了该方法的有效性。项目页面:https://yzheng97.github.io/OPONeRF/
在本文中,我们提出了一个名为One-Point-One NeRF(OPONeRF)的框架,该框架旨在解决少样本渲染领域中的一个关键且尚未充分探索的挑战:在场景发生意外变化时,保持场景重建的鲁棒性和渲染质量。为了克服这一难题,现有的新型视图合成方法要么需要大量的跨场景训练数据,要么在针对特定场景进行预训练后难以在测试场景变化时保持一致的质量。为了解决这个问题,我们在OPONeRF中采用了一种分而治之的框架,通过个性化适当的点参数来适应局部场景变化,而不是拟合一组对测试场景未见变化不敏感的NeRF参数。此外,为了明确捕捉局部不确定性,我们将点表示分解为确定性映射和概率推理。通过这种方式,OPONeRF学习了可共享的不变性,并在无监督的情况下对训练场景和测试场景之间的意外变化进行了建模。为了验证所提出方法的有效性,我们使用包含前景运动、光照变化和多模态噪声等多种测试场景变化的真实数据和合成数据构建了基准测试,这些挑战比传统的泛化和时间重建基准测试更为复杂。实验结果表明,我们的OPONeRF在各种评估指标上均优于现有的最先进少样本神经渲染方法。我们进一步通过在其他现有的基于泛化的基准测试中进行实验,并将One-Point-One NeRF的思想融入其他先进的基线方法中,证明了该方法的有效性。项目页面:https://yzheng97.github.io/OPONeRF/
生物通微信公众号
知名企业招聘