编辑推荐:
放射学报告常冗长无结构,影响医生获取关键信息。研究人员利用机构防火墙内本地部署的私有大语言模型(LLMs)开展研究。结果显示,Mixtral LLM 表现出色,能减词超 53%。这一研究助力优化报告,提升临床工作流程。
放射学报告往往篇幅冗长且缺乏结构,这给转诊医生快速识别关键影像学发现带来了挑战,同时也增加了遗漏信息的风险。这项回顾性研究旨在通过使放射学报告简洁明了、结构合理,依据相关器官对检查结果进行整理,进而提升报告质量。
为实现这一目标,研究人员使用了部署在机构防火墙内的私有大语言模型(LLMs),这样既能确保数据安全,又能将计算成本降至最低。研究采用了来自 [评审时匿名] 的 7 位获得委员会认证的体部放射科医生撰写的 814 份放射学报告数据集,在 LangChain 框架内测试了 5 种提示策略。
在评估了多个模型后,发现 Mixtral 大语言模型相比 Llama 等其他模型,在遵循格式要求方面表现更为优异。最优策略为先精简报告,再依据特定指令进行结构化排版,这一方法在减少冗余的同时提高了报告的清晰度。在所有放射科医生撰写的报告中,Mixtral 大语言模型减少了超过 53% 的冗余词汇量。
这些研究结果凸显了本地部署的开源大语言模型在简化放射学报告流程方面的巨大潜力。通过生成简洁、结构良好的报告,这些模型能够提升信息检索效率,更好地满足转诊医生的需求,最终优化临床工作流程。