STANet:基于时空融合的外科手术手势识别模型及其在机器人辅助手术中的应用研究
【字体:
大
中
小
】
时间:2025年09月26日
来源:Annals of the New York Academy of Sciences 4.8
编辑推荐:
来自多机构的研究团队针对机器人手术中手势识别时空特征融合不足的难题,开发了新型时空自适应网络(STANet)。该模型通过时空模块协同与自适应卷积策略,在JIGSAWS和RARP-45数据集上实现卓越性能,为手术质量评估与智能辅助系统提供关键技术支撑。
在机器人手术领域,外科手势识别(Surgical Gesture Recognition)对手术质量评估与智能辅助具有关键意义。当前主流方法如循环神经网络(RNN)和时序卷积网络(TCN)虽能建模动作序列,却存在时空特征融合不足、长程依赖捕捉乏力等局限。为此,研究者提出时空自适应网络(Spatiotemporal Adaptive Network, STANet),通过独立时空模块分别提取特征,并采用时序自适应卷积策略(Temporal Adaptive Convolution)进行融合优化,整合手术手势序列的长短期特性。该网络嵌入主干架构后,在公开数据集JIGSAWS和RARP-45上表现优异,超越现有基准模型。该技术可广泛应用于手术机器人、视觉反馈系统与计算机辅助手术(Computer-Assisted Surgery),为术者提供更丰富的手术信息保障操作安全。图文摘要进一步强调,该视觉模型通过增强感受野与时空整合,有效提升手势识别精度,缓解机器人手术中间接视觉反馈对手眼协调的负面影响。作者声明无利益冲突。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号