综述:人工智能支持的医疗神经技术中的可解释性:一项范围综述

《Journal of NeuroEngineering and Rehabilitation》:Explainability in AI-enabled medical neurotechnology: a scoping review

【字体: 时间:2026年02月19日 来源:Journal of NeuroEngineering and Rehabilitation 5.2

编辑推荐:

  人工智能驱动闭环神经技术发展,但可解释性不足引发临床与伦理挑战。系统分析161项研究,仅9%采用明确可解释AI技术,识别三大障碍:技术限制、解释质量与用户信任关系。需加强可解释框架以提升透明度、责任性和临床实用性,促进伦理安全与患者信任的神经技术应用。

  

摘要

人工智能(AI)方法,包括机器学习(ML)和其他复杂算法,正在推动医疗闭环神经技术的进步,这些技术涵盖了神经刺激系统和脑机接口(BCIs)。这些进展正在改变神经系统和精神疾病的治疗方式。然而,许多AI模型的固有不透明性引发了临床、认识论和伦理方面的挑战。可解释性被广泛认为是应对这些挑战的关键要求,但其在神经技术中的具体应用仍然不够充分。研究目的。 本综述探讨了可解释人工智能(XAI)方法在基于AI的闭环神经技术中的实现方式,并分析了该领域中可解释性的概念化和操作化过程。研究方法。 按照JBI指南和PRISMA-ScR标准,我们系统地检索了五个数据库中关于针对神经系统和精神疾病的基于AI的医疗闭环神经技术的原创研究。共纳入161项研究,并通过描述性统计和定性内容分析来识别XAI方法的存在及其应用情况。主要结果:在医疗神经技术中,可解释人工智能的应用仍然有限,仅有14项研究(9%)采用了明确的XAI技术。对全部研究文本的主题分析发现了三个反复出现的障碍和重点问题:(A) 技术限制及提出的解决方案;(B) 解释质量和系统透明度的挑战;(C) 可解释性与用户信任之间的关系。研究意义。 尽管闭环神经技术正在快速发展,但在实践中很少实施可解释性措施,这限制了系统的透明度、责任性和临床可用性。我们的研究结果揭示了导致可解释性不足的关键因素,并为未来的研究和开发提供了框架。解决这一不足对于推动伦理合理、临床有效且受患者信任的神经技术应用至关重要。

人工智能(AI)方法,包括机器学习(ML)和其他复杂算法,正在推动医疗闭环神经技术的进步,这些技术涵盖了神经刺激系统和脑机接口(BCIs)。这些进展正在改变神经系统和精神疾病的治疗方式。然而,许多AI模型的固有不透明性引发了临床、认识论和伦理方面的挑战。可解释性被广泛认为是应对这些挑战的关键要求,但其在神经技术中的具体应用仍然不够充分。研究目的。 本综述探讨了可解释人工智能(XAI)方法在基于AI的闭环神经技术中的实现方式,并分析了该领域中可解释性的概念化和操作化过程。研究方法。 按照JBI指南和PRISMA-ScR标准,我们系统地检索了五个数据库中关于针对神经系统和精神疾病的基于AI的医疗闭环神经技术的原创研究。共纳入161项研究,并通过描述性统计和定性内容分析来识别XAI方法的存在及其应用情况。主要结果:在医疗神经技术中,可解释人工智能的应用仍然有限,仅有14项研究(9%)采用了明确的XAI技术。对全部研究文本的主题分析发现了三个反复出现的障碍和重点问题:(A) 技术限制及提出的解决方案;(B) 解释质量和系统透明度的挑战;(C) 可解释性与用户信任之间的关系。研究意义。 尽管闭环神经技术正在快速发展,但在实践中很少实施可解释性措施,这限制了系统的透明度、责任性和临床可用性。我们的研究结果揭示了导致可解释性不足的关键因素,并为未来的研究和开发提供了框架。解决这一不足对于推动伦理合理、临床有效且受患者信任的神经技术应用至关重要。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号