基于计算机视觉与深度学习的桡骨远端X线影像视图分类及解剖定位研究

【字体: 时间:2025年08月19日 来源:Journal of Orthopaedic Research 2.3

编辑推荐:

  这篇研究创新性地应用YOLOv5目标检测模型,开发了能自动分类桡骨远端X线视图(AP/LAT/OB)并定位关键解剖区域的深度学习系统。通过1593张标注影像验证,模型整体准确率达97.3%(AP 99%,LAT 100%,OB 93%),显著优于随机猜测(p<0.001)。研究还开发了Streamlit移动应用,为后续骨折分类模型提供精准的解剖区域裁剪,在基层医疗和急诊场景中具有重要应用价值。

  

摘要

计算机视觉与机器学习的进步为骨科影像分析提供了新工具。本研究聚焦桡骨远端X线片的视图分类(前后位AP、侧位LAT、斜位OB)与解剖定位,开发了基于YOLOv5的目标检测模型。通过1593张来自单一机构的标注影像(544 AP/538 LAT/521 OB)训练,模型在测试集达到97.3%整体准确率,其中AP和LAT视图分类准确率分别达99%和100%。配套开发的Streamlit移动应用可实现临床实时部署,为下游骨折诊断模型提供精准的解剖区域裁剪。

1 引言

桡骨远端骨折(DRF)是急诊常见损伤,年医疗支出超25亿美元。标准X线视图(AP/LAT/OB)的准确分类对评估骨折参数(如桡骨高度、掌倾角)至关重要。传统卷积神经网络(CNN)缺乏空间特异性,而本研究采用YOLOv5实现视图分类与解剖区域(从第二掌指关节MCP至桡骨远端1/3)的同步定位,为后续AI诊断流程提供预处理支持。

2 方法论

数据收集:2012-2023年1593张去标识化X线片,经骨科医师验证标注。

模型架构:选用轻量级YOLOv5s,内置数据增强(旋转/色彩抖动等)。

训练策略:70/15/15数据集划分,从零开始训练(未用预训练权重),监控mAP50(0.987)和mAP50-95(0.74)等指标。

统计验证:二项检验证实模型显著优于随机猜测33%基准(p<0.0001)。

3 结果

  • 分类性能:混淆矩阵显示OB视图6%误判为AP,其余视图准确率>99%。

  • 定位效果:图3展示模型成功框定目标解剖区域(置信度0.79-0.86)。

  • 曲线分析:F1-置信度曲线峰值0.97,PR曲线AUC达0.987。

4 讨论

该工具通过视图分类与区域裁剪可提升下游骨折模型的信噪比,尤其适用于资源有限的基层医疗。局限性包括单中心数据来源和每类约500张的训练样本量(低于YOLOv5推荐的1000张/类)。未来需通过多中心验证优化OB视图分类,并探索其在临床决策支持系统(CDSS)中的应用。

作者贡献

通讯作者Lorenzo Deveza主导研究设计与软件开发,Rohan Vemu等参与数据收集与模型训练。研究获贝勒医学院骨科教育组(BORaE)支持。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号