综述:临床领域的生成式人工智能(2020–2025年):应用、新兴趋势及临床挑战的简要综述
《Frontiers in Digital Health》:Generative AI in clinical (2020–2025): a mini-review of applications, emerging trends, and clinical challenges
【字体:
大
中
小
】
时间:2025年11月04日
来源:Frontiers in Digital Health 3.8
编辑推荐:
生成式AI在医疗影像、文本和分子设计中的应用取得进展,但存在数据偏差、合成样本不足和临床事实幻觉问题,需加强验证、可解释性和治理框架。
生成式人工智能(Generative AI, G-AI)正在从概念验证阶段迅速发展为实际应用工具,广泛用于辅助放射学、皮肤病学、遗传学、药物发现以及电子健康记录分析等领域。本文综合分析了2020年至2025年间发表的十五项研究,揭示了当前G-AI在医疗领域的三大主要发展趋势:用于处理不平衡或隐私受限数据集的数据增强、自动化专家密集型任务如放射学报告的生成,以及生成新的生物医学知识,涵盖分子结构设计到公平性分析等多个方面。尽管这些技术在提升诊断效率和数据可用性方面展现出巨大潜力,但它们仍然面临诸多挑战,例如合成样本可能忽略罕见病理特征、大规模多模态系统可能产生错误的临床信息,以及数据偏见可能被放大。因此,在将G-AI安全地嵌入常规医疗实践中之前,必须建立稳健的验证机制、可解释性技术以及治理框架。
医疗领域长期以来面临着数据稀缺和数据隐私的双重困境。创建大型、平衡且可公开共享的临床数据集不仅成本高昂,而且在操作上具有复杂性,同时涉及伦理问题。近年来,生成式人工智能技术的突破,尤其是生成对抗网络(GANs)、变分自编码器(VAEs)、扩散模型以及大型视觉语言模型(VLMs)的出现,为解决这些问题提供了新的可能性。这些模型能够生成逼真但隐私保护的数据,从而在不侵犯患者隐私的前提下,为医学研究和临床应用提供丰富的数据资源。通过回顾十五项具有代表性的研究,本文展示了这些技术如何在多个临床任务中发挥作用,同时揭示了其在实际应用中的局限性。
在医学影像领域,G-AI的应用尤为广泛。早期研究中,Han等人提出了“病理感知”GANs,用于增强计算机辅助诊断(CAD)数据集,并为初学者放射科医生提供训练材料。随后的研究则进一步提升了合成图像的保真度和维度,例如Aydin等人重新设计了StyleGANv2,生成三维时间飞行磁共振血管造影(TOF-MRA)体积,从而在不依赖额外患者扫描的情况下提高多类动脉分割的准确性。Pawlicka等人则利用GAN生成的结肠息肉图像,缓解了数据集中类别不平衡的问题,提升了内窥镜图像分割的精确度。Ultsch和L?tsch通过微调潜在的Stable Diffusion模型,解决了黑色素瘤检测中的类别不平衡问题,证明了扩散模型在皮肤镜图像真实性方面的竞争力。
除了图像处理,G-AI还展现出在文本生成和分子设计方面的潜力。Phipps等人探索了能够将胸部X光图像特征转化为自由文本放射学报告的视觉语言模型,这种技术可能在高负荷的放射科工作中减轻放射科医生的工作负担。然而,他们的评估框架也揭示了模型在生成文本时容易产生临床事实的错误,这提醒我们,事实基础仍然是生成式人工智能在医疗领域应用中的关键瓶颈。Huang等人在急诊科工作流程中的研究则进一步验证了文本生成模型在提高效率和评估挑战方面的双重作用。
在分子和系统层面,G-AI的应用也逐步展开。Zeng等人利用ProteinGAN和分层生成模型设计新型蛋白质和小分子,加速了临床前研究流程。Bordukova等人则借助合成患者轨迹构建数字孪生,从而降低临床试验的成本和伦理负担。此外,Khosravi等人生成了能够隔离种族相关影像特征的X光图像,为公平性审计提供了实验平台。这些研究不仅展示了G-AI在医学研究中的多样性,也揭示了其在不同领域应用时所面临的独特挑战。
尽管G-AI在多个方面展现出显著优势,但其应用仍然存在一些限制。首先,合成数据往往无法准确反映罕见解剖变异或微妙的疾病表型,这可能导致模型在面对分布外数据时过于自信,从而影响诊断的可靠性。其次,训练数据中的偏见可能会被放大,例如在骨盆X光图像合成过程中,存在明显的种族偏差。此外,大规模多模态系统可能会生成看似合理但实际错误的陈述,这在临床环境中可能带来严重的后果,因此必须加强模型的可解释性。例如,Lang等人提出的StylEx方法,通过将StyleGAN的潜在空间与人类可读的属性联系起来,为模型的可解释性提供了新的思路。
在部署G-AI技术时,监管和伦理考量同样不容忽视。尽管生成式人工智能可以促进数据共享,但必须确保患者知情同意和机构审查流程的合规性。同时,临床医生和监管机构对模型的透明度提出了更高的要求,期望在批准AI辅助决策之前,能够清晰地了解模型的推理过程。这些研究共同表明,G-AI在医疗领域的应用不仅具有变革潜力,还需要严格的验证和监管机制,以确保其在实际临床环境中的安全性和可靠性。
为了更好地理解G-AI在医疗领域的应用现状,本文还探讨了文献筛选的方法。研究团队在PubMed、IEEE Xplore和Scopus等数据库中进行了有针对性的检索,时间范围为2020年1月至2025年5月。关键词包括“生成式人工智能”、“合成数据”、“临床实践”和“医疗健康”。从超过65篇初步筛选的文章中,研究团队优先选择了在临床环境中明确应用生成式人工智能的同行评审论文。最终选定的十五项研究覆盖了医学影像、文本处理、分子设计和公平性分析等多个领域,旨在展示生成式人工智能在医疗领域的广泛应用及其主要局限。
从这些研究可以看出,G-AI在医疗领域带来了三个方面的潜在收益:首先,它能够通过隐私保护的方式增强数据集,从而加速模型的开发和训练;其次,它有助于自动化专家密集型任务,如放射学报告生成或疾病表型标注,从而提高工作效率;第三,它能够生成探索性见解,例如发现新的生物标志物或揭示潜在的医疗不平等现象。然而,要实现这些收益,必须解决模型的可解释性问题、减少偏见的传播,并建立与快速发展的G-AI工具链相匹配的治理框架。为此,应在部署过程中引入一系列保障措施,如偏见审计、可解释性技术以及合成数据的透明溯源系统。此外,评估生成式模型时,通常采用BLEU/ROUGE等指标用于文本生成的评估,Fréchet Inception Distance(FID)或Inception Score用于图像生成的评估,以及困惑度(perplexity)用于语言模型的评估,这些指标为模型的可靠性提供了量化依据。
综上所述,生成式人工智能已经为临床数据处理流程带来了显著的改进,从放射科诊疗室到药物研发实验室,其应用正逐步深入。然而,当前的成果仍然伴随着诸多问题,包括罕见病理特征的缺失、种族偏见的潜在放大以及文本生成模型的不准确性。因此,未来的研究必须在技术创新的同时,加强对外部数据集的验证,确保合成数据的来源透明,并开发用户友好的解释接口。只有通过跨学科的共同努力,生成式人工智能才能从有前景的原型技术发展为真正可靠、注重公平性的工具,从而为患者护理带来实质性的提升。此外,新兴趋势如用于手术规划的文本到3D图像生成,也预示着生成式人工智能在临床实践中的更多可能性,而其在医学教育和管理方面的应用仍有待进一步探索。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号