
-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于计算机视觉与深度学习的桡骨远端X线影像视图分类及解剖定位研究
【字体: 大 中 小 】 时间:2025年08月19日 来源:Journal of Orthopaedic Research 2.3
编辑推荐:
这篇研究创新性地应用YOLOv5目标检测模型,开发了能自动分类桡骨远端X线视图(AP/LAT/OB)并定位关键解剖区域的深度学习系统。通过1593张标注影像验证,模型整体准确率达97.3%(AP 99%,LAT 100%,OB 93%),显著优于随机猜测(p<0.001)。研究还开发了Streamlit移动应用,为后续骨折分类模型提供精准的解剖区域裁剪,在基层医疗和急诊场景中具有重要应用价值。
计算机视觉与机器学习的进步为骨科影像分析提供了新工具。本研究聚焦桡骨远端X线片的视图分类(前后位AP、侧位LAT、斜位OB)与解剖定位,开发了基于YOLOv5的目标检测模型。通过1593张来自单一机构的标注影像(544 AP/538 LAT/521 OB)训练,模型在测试集达到97.3%整体准确率,其中AP和LAT视图分类准确率分别达99%和100%。配套开发的Streamlit移动应用可实现临床实时部署,为下游骨折诊断模型提供精准的解剖区域裁剪。
桡骨远端骨折(DRF)是急诊常见损伤,年医疗支出超25亿美元。标准X线视图(AP/LAT/OB)的准确分类对评估骨折参数(如桡骨高度、掌倾角)至关重要。传统卷积神经网络(CNN)缺乏空间特异性,而本研究采用YOLOv5实现视图分类与解剖区域(从第二掌指关节MCP至桡骨远端1/3)的同步定位,为后续AI诊断流程提供预处理支持。
数据收集:2012-2023年1593张去标识化X线片,经骨科医师验证标注。
模型架构:选用轻量级YOLOv5s,内置数据增强(旋转/色彩抖动等)。
训练策略:70/15/15数据集划分,从零开始训练(未用预训练权重),监控mAP50(0.987)和mAP50-95(0.74)等指标。
统计验证:二项检验证实模型显著优于随机猜测33%基准(p<0.0001)。
分类性能:混淆矩阵显示OB视图6%误判为AP,其余视图准确率>99%。
定位效果:图3展示模型成功框定目标解剖区域(置信度0.79-0.86)。
曲线分析:F1-置信度曲线峰值0.97,PR曲线AUC达0.987。
该工具通过视图分类与区域裁剪可提升下游骨折模型的信噪比,尤其适用于资源有限的基层医疗。局限性包括单中心数据来源和每类约500张的训练样本量(低于YOLOv5推荐的1000张/类)。未来需通过多中心验证优化OB视图分类,并探索其在临床决策支持系统(CDSS)中的应用。
通讯作者Lorenzo Deveza主导研究设计与软件开发,Rohan Vemu等参与数据收集与模型训练。研究获贝勒医学院骨科教育组(BORaE)支持。
生物通微信公众号
知名企业招聘