《Healthcare and Rehabilitation》:Automated High-Fidelity 3D Reconstruction of Middle-Ear Ossicles from Low-Resolution Clinical CT using a Deep Learning Pipeline
编辑推荐:
该研究提出了一种基于深度学习的自动化三维耳骨模型生成框架,包含ROI检测、超分辨率重建和切片插值三阶段,利用hint通道整合解剖学先验知识,5分钟内完成重建,Dice系数0.85,表面误差4.8 μm,显著提升临床效率并支持生物力学模拟。
Jongyeon Yoon|Jeongsan Kim|Jongwoo Lim|Ivo Dobrev|Christof R??sli|Seungchul Lee|Il Joon Moon|Namkeun Kim
韩国首尔麻浦区白峰路35号,索冈大学机械工程系,邮编04107
摘要
本研究验证了一个自动化深度学习框架,该框架能够从低分辨率的临床CT图像生成高保真的中耳听小骨3D模型。该框架采用了一个顺序的三阶段流程:(1)使用YOLOv5x进行精确的感兴趣区域(ROI)检测;(2)利用深度背投影网络(DBPN)对ROI进行4倍超分辨率处理;(3)使用2.5D U-Net进行切片插值,以创建密集的体积数据集。为了确保从不完整的数据中重建出可靠的模型,插值阶段整合了一个“提示通道”,该通道利用了解剖学先验知识。该框架表现出高精度,ROI检测的平均精度(mAP50)达到0.9835,并生成了具有高解剖学保真度的最终3D模型(Dice系数:0.85;平均表面距离:4.8 μm)。在外部验证集上,提示通道的效果最为显著,它成功生成了由于源信息稀疏而原本被遗漏的完整听小骨结构,证明了模型的强泛化能力。此外,从CT扫描到最终3D模型的整个自动化过程仅用了5分钟,与需要大约20分钟的手动方法相比,显著提高了工作流程效率。因此,该框架被验证为一种快速、准确且可靠的工具,可用于从标准临床CT图像生成患者特定的3D听小骨模型。这项技术有望提高生物力学有限元模拟的准确性,并为推进耳科手术和定制假体设计方面的精准医疗奠定基础。
引言
中耳(ME)的听小骨——锤骨、砧骨和镫骨——形成一个机械链,将声波振动从鼓膜传递到内耳。它们的主要功能是克服外耳空气与内耳液体之间的声阻抗不匹配问题,这对正常听觉至关重要(Hüttenbrink, 1988)。然而,这种精细的结构容易受到创伤或疾病的损害,这会干扰声音传输并导致传导性听力损失(Basson和Van Lierop, 2009;Hartley和Moore, 2003;Sataloff和Roehm, 2024;Zahnert, 2011)。
通常需要通过手术干预(如听小骨成形术)来恢复听力,而这些手术依赖于准确的术前评估(Cox等人,2017;Lasak等人,2014)。计算机断层扫描(CT)是标准的诊断工具,但其临床应用受到图像分辨率和辐射剂量之间的权衡限制(Chen等人,2014;Dalchow等人,2006;Fatterpekar等人,2006;Juliano,2018;Wang等人,2019)。这一限制,加上听小骨的小尺寸(< 8毫米)和高解剖学变异性,使得创建用于患者特定有限元(FE)分析的精确三维(3D)模型变得困难(Benca等人,2020;Crawford等人,2003;Noussios等人,2015;Padmini等人,2013;Sodhi等人,2017)。
深度学习方法已被应用于解决这些问题,但仍然缺乏一种从临床CT图像生成可用于模拟的完整3D模型的完整解决方案。例如,一些研究开发了用于从CT扫描中诊断病理的模型,但这些模型仅用于分类,而不重建3D几何结构(Cai等人,2024;Chen等人,2024)。其他研究则专注于使用超分辨率技术提高2D图像质量,但这些方法无法生成FE模拟所需的体积3D数据(Fujita等人,2024;Ke等人,2023;Wang等人,2024)。最后,虽然一些团队使用高分辨率微CT(μCT)实现了准确的3D分割,但由于μCT不是患者的标准成像方式,这些模型无法应用于常规临床实践(Lee等人,2010;Xie等人,2025)。
为了解决这一差距,本研究提出了一个人工智能(AI)框架,用于从临床环境中使用的低分辨率CT图像自动生成精确的3D听小骨模型。该方法采用了一个顺序流程:(1)使用YOLOv5x进行听小骨区域检测;(2)使用深度背投影网络(DBPN)提高空间分辨率;(3)使用2.5D U-Net进行切片插值。最终目标是生成高保真的3D FE模型,以支持生物力学分析并推进耳科手术中的精准医疗。
方法
本研究提出了一个三阶段的深度学习框架,如图1所示,用于从低分辨率的临床CT图像重建精确的3D听小骨模型。本节首先描述了数据集和实验环境,然后详细介绍了三个阶段的具体架构和训练程序:(1)感兴趣区域(ROI)检测;(2)超分辨率处理;(3)切片插值。最后总结了实施细节。
结果
本节评估了第2节提出的三阶段AI框架的性能。如2.1.3节所述,评估策略分为两部分,以验证定量准确性和实际泛化能力:(1)使用内部测试集进行定量性能验证,这些测试集提供了真实数据;(2)使用外部验证集进行端到端泛化验证,该验证集包含没有真实数据的实际临床数据。
框架性能分析
所提出的三阶段框架展示了出色的端到端性能,在中间和最终重建阶段都取得了很高的准确性。第一阶段对象检测模型(mAP50 > 0.98)的稳健性能至关重要,因为它为整个自动化流程提供了可靠的基础,并最小化了误差传播。此外,最终的3D模型表现出高解剖学和体积保真度(Dice系数:0.85;平均表面距离:4.8 μm),证实了
结论
本研究开发并验证了一个三阶段的深度学习框架,用于从低分辨率的临床CT数据自动生成精确的3D听小骨模型。该模块化流程包括顺序的ROI检测、超分辨率处理和切片插值,展示了高保真度,在内部测试数据上达到了0.85的Dice分数和4.8 μm的平均表面距离。此外,新的“提示通道”对于稳健地重建完整模型至关重要
支持来源
本研究得到了RS-2023-00218379和RS-2025-00563369的支持。
作者署名声明
Jongyeon Yoon:概念构思、方法论、形式分析、数据整理、写作——初稿
Jeongsan Kim:方法论、形式分析、数据整理、可视化
Jongwoo Lim:方法论、形式分析
Ivo Dobrev:概念构思、数据整理
Christof R??sli:概念构思、数据整理
Seungchul Lee:写作审查与编辑、监督
Il Joon Moon:数据整理、写作审查与编辑、监督
Namkeun Kim:概念构思、验证、形式化
CRediT作者贡献声明
Jongyeon Yoon:写作——初稿、方法论、研究、形式分析、数据整理、概念构思。
Jeongsan Kim:可视化、方法论、研究、形式分析。
Jongwoo Lim:方法论、形式分析。
Ivo Dobrev:数据整理、概念构思。
Christof R??sli:数据整理、概念构思。
Seungchul Lee:写作——审查与编辑、监督。
Il Joon Moon:写作——审查与编辑、监督、数据整理。
Namkeun Kim:写作——审查与