
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于深度先验高斯泼溅的机器人手术场景高质量新视角合成技术研究
【字体: 大 中 小 】 时间:2025年05月13日 来源:Computer Methods and Programs in Biomedicine 4.9
编辑推荐:
为解决机器人辅助手术中多视角可视化不足的问题,研究人员提出了一种结合深度先验(Depth Anything V2)与3D高斯泼溅(3DGS)的新视角合成方法,通过多尺度损失优化策略提升深度估计精度。实验在自建及公开数据集(Hamlyn、Stereo MIS)上取得平均PSNR 33.45、SSIM 0.939的优异结果,显著提升了手术场景重建质量,为术中决策和医生培训提供了重要技术支持。
在机器人辅助手术领域,精准的术中可视化一直是核心挑战。尽管达芬奇手术系统等设备已显著提升操作灵活性,但受限于内窥镜单视角成像,医生仍难以获取目标组织的多角度三维信息。传统方法如神经辐射场(NeRF)虽能合成新视角,却因计算效率低、噪声敏感等问题难以临床应用。更棘手的是,腹腔镜环境下的镜面反射、纹理缺失区域会导致基于结构光运动(SfM)的初始化点云稀疏,进一步影响三维重建质量。
针对这一难题,云南某高校团队在《Computer Methods and Programs in Biomedicine》发表研究,创新性地将单目深度估计模型Depth Anything V2与3D高斯泼溅(3D Gaussian Splatting, 3DGS)相结合。该方法通过深度先验优化高斯分布参数,并引入多尺度损失函数解决过渡区域尺度模糊问题,最终在自建机器人手术数据集及Hamlyn、Stereo MIS公开数据集上实现了实时、高保真的新视角合成。
关键技术包括:1)利用预训练Depth Anything V2模型提取全局深度先验;2)设计置信度加权多尺度损失策略,动态调整不同分辨率下的优化权重;3)基于COLMAP的SfM算法初始化相机位姿;4)通过GPU加速实现3DGS实时渲染。实验数据来源于模拟远程手术机器人采集的猪器官场景及公开腹腔镜数据集。
方法
研究团队提出深度引导的3DGS框架:首先通过单目深度估计生成稠密深度图,替代传统SfM的稀疏点云初始化,解决高斯分布先验不足问题。针对深度估计误差,设计包含L1损失、结构相似性(SSIM)和感知损失(LPIPS)的多尺度优化目标,在128×128至1024×1024四个分辨率层级上联合优化高斯参数。
实验结果
定量评估显示,该方法在三个数据集上的平均峰值信噪比(PSNR)达33.45,结构相似性(SSIM)0.939,均优于基线模型。特别是在纹理缺失区域,深度先验使重建误差(RMSE)降低至0.022。可视化结果证实,该方法能准确还原手术器械边缘细节和软组织表面凹凸特征。
讨论与展望
该研究的突破性在于将通用深度估计模型成功迁移至手术场景,通过自适应权重策略缓解了镜面反射干扰。局限性在于深度估计精度依赖训练数据分布,未来可通过域适应技术增强泛化性。这项技术不仅可用于术中导航,还能与术前CT/MRI数据进行3D-3D配准,为数字孪生手术系统奠定基础。
结论
该工作证明了深度先验与3DGS结合在手术场景重建中的有效性,其33.45 dB的PSNR和实时渲染能力(>30 fps)标志着机器人手术可视化技术的重大进步。研究团队进一步指出,该框架可扩展至其他单目深度估计任务,为医疗人工智能的发展提供了新范式。
生物通微信公众号
知名企业招聘