TINN:一种面向水下单像素成像的自监督图像复原新框架
《Optics & Laser Technology》:TINN: a self-supervised framework for underwater single-pixel image restoration
【字体:
大
中
小
】
时间:2025年10月27日
来源:Optics & Laser Technology 4.6
编辑推荐:
本文针对水下单像素成像(USPI)在浑浊介质中因强散射和吸收导致图像细节模糊、对比度低、噪声严重的问题,提出了一种不依赖干净参考数据的自监督图像复原框架TINN。该框架创新性地将自适应阈值分割算法与深度学习模型相结合,通过"回声生成-边界细化-结构填充"的三阶段流程,在仿真和光学实验中均实现了优异的边缘重建和噪声抑制效果,为无参考图像复原提供了新范式。
在神秘而广阔的海洋深处,光线仿佛进入了一个充满挑战的迷宫。当科学家们试图通过光学成像技术窥探水下世界时,他们发现了一个棘手的问题:水体就像一面毛玻璃,不仅会吸收光线使其变暗,更会像雾天里的车灯一样发生散射,导致拍摄的图像模糊不清、对比度低下。这种"水下视觉障碍"严重制约了海洋勘探、水下监测等重要应用的发展。
传统的水下成像技术往往力不从心,而单像素成像(SPI)技术因其对散射介质的独特适应性而崭露头角。然而,即使在这样相对优越的技术下,重建的图像仍然难以避免地出现细节模糊、噪声严重等问题。更令人头疼的是,在真实的水下环境中,几乎不可能获取清晰的"标准答案"图像作为训练数据,这使得主流的监督式深度学习方法束手无策。
面对这一困境,来自山东大学的研究团队独辟蹊径,在《Optics》上发表了一项创新性研究。他们开发了一种名为TINN(阈值信息神经网络)的自监督框架,巧妙地将经典图像处理算法与深度学习模型相结合,为水下单像素图像复原开辟了新途径。
研究人员采用的核心技术方法包括:基于自适应阈值分割的伪标签生成技术,通过计算每个像素的局部阈值来提取二值化"回声"信号;轻量级U-Net网络架构,利用其编码器-解码器结构和跳跃连接来学习图像的空间上下文信息;基于图像块的自监督训练策略,从单张噪声图像中生成大量训练样本对;形态学后处理算法,用于提取高质量边界并完成结构填充。整个框架采用零样本学习方式,对每张待复原图像都从头开始训练,无需外部数据集。
研究团队首先使用自适应阈值算法从原始噪声图像中提取二值化"回声"信号。这个算法会为每个像素计算一个依赖于其邻域强度分布的局部阈值T(x,y),采用高斯加权方法进行计算。这个过程成功捕获了物体的基本轮廓,但也不可避免地引入了椒盐噪声和不完美的锯齿状边缘。
随后,设计了一个轻量级U-Net作为"边界细化器"。该网络在原始噪声图像和生成的"回声"信号双重约束下进行训练,专门学习物体的边缘信息。通过基于图像块的自监督方法,网络在从输入噪声图像生成的伪数据集上进行训练,最终学会了从噪声图像块到回声伪标签块的映射函数。
最后阶段采用确定的形态学算法从网络输出中提取高质量边界,然后进行填充得到最终复原图像。这种方法完全消除了背景噪声,实现了边缘细节的优异复原。
在仿真实验中,TINN在结构相似性(SSIM)和峰值信噪比(PSNR)两个关键指标上均表现出显著优势。在不同噪声水平下,TINN的SSIM值始终保持在0.83以上,最高达到0.8969,而其他对比方法的SSIM值均未超过0.2。这证明TINN在结构保真度方面实现了质的飞跃。
在实际光学实验中,研究人员通过向水箱中添加不同量的腻子粉来模拟不同浑浊度的水体环境。实验结果显示,随着水体浑浊度增加,传统方法重建的图像逐渐被散射噪声淹没,而TINN能够在所有浑浊度条件下重建出轮廓清晰、边缘锐利的二值化图像,几乎完全消除了散射噪声的视觉影响。
该研究的创新性在于将图像复原任务的重点从"基于局部统计的像素预测"转变为"基于全局上下文的结构优化",这种思路转变在处理遭受严重结构退化的图像时显示出独特优势。TINN框架不依赖于统计假设、网络先验、自相似性或物理测量,而是通过经典图像分割算法主动构建的宏观结构化二值伪标签来指导学习过程。
虽然目前该方法仅适用于二值图像复原,但研究团队指出,将其扩展到灰度图和彩色图像复原将面临新的挑战,未来将探索更先进的伪标签生成策略。这项研究为在复杂、无参考的噪声环境中解决图像复原问题提供了一个新颖且可解释的自监督范式,不仅在水下成像领域具有重要应用价值,也为相关领域的图像处理技术发展提供了新思路。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号