
-
生物通官微
陪你抓住生命科技
跳动的脉搏
土耳其肿瘤科医生对人工智能整合的认知与伦理考量:一项全国性调查
【字体: 大 中 小 】 时间:2025年07月06日 来源:BMC Medical Ethics 3
编辑推荐:
本研究针对人工智能(AI)在肿瘤学领域的应用现状,通过调查土耳其1340名执业肿瘤科医生中147位受访者的AI使用情况、知识水平及伦理态度。研究发现77.5%的医生使用过AI工具(主要为ChatGPT等大语言模型),但仅9.5%接受过正规AI培训。结果显示医生们对AI在预后评估和研究中的应用持乐观态度,但对医患关系影响和数据隐私存在担忧,79.6%认为现行法规不足。该研究为制定AI教育计划和伦理框架提供了重要依据。
在医疗人工智能(AI)迅猛发展的浪潮中,肿瘤学领域正面临前所未有的技术变革机遇。大语言模型(LLM)如ChatGPT等工具已悄然进入临床医生的日常工作流程,但这场技术革命也带来了知识鸿沟和伦理困境——当77.5%的土耳其肿瘤科医生已经在使用AI工具时,却有高达90.5%的医生从未接受过相关培训。这种"高使用率、低认知度"的矛盾现象,正是安卡拉大学医学院Efe Cem Erdat1*和Filiz Cay Senler1团队在《BMC Medical Ethics》上发表的研究所揭示的核心问题。
研究团队采用横断面调查设计,通过土耳其医学肿瘤学会的通讯渠道,在2024年10月16日至11月27日期间收集了全国147名肿瘤科医生(约占该国1340名执业肿瘤科医生的11%)的问卷数据。研究创新性地将定量分析与定性研究相结合,不仅使用R软件进行统计分析,还通过人工编码处理开放式问题的文本反馈。
关键技术方法包括:1)基于微软Forms平台的在线问卷调查;2)涵盖人口统计学特征、AI使用模式、自我评估知识水平、态度量表等维度的结构化问卷;3)针对土耳其七大地理区域的医生进行分层抽样;4)采用描述性统计和序数回归分析影响因素。
研究结果呈现多维度发现:
AI使用与教育现状
调查显示ChatGPT等GPT模型以77.5%的使用率成为最普及工具,但AI教育严重匮乏——仅9.5%受访者接受过任何形式培训。这种"自学成才"现象导致86.4%医生自评对机器学习(ML)仅有"少量认知"或"完全不懂"。
临床整合态度
医生们对AI在不同场景的应用呈现"选择性欢迎":预后评估获得最积极评价(78.2%支持率),而患者随访则引发最多保留意见(42.1%持中立态度)。这种差异反映出对技术可靠性的人文考量。
伦理与监管关切
57.8%受访者认为AI参与患者管理存在伦理风险,51%反对AI辅助学术写作。值得注意的是,尽管意识到伦理问题,仍有13.6%医生承认使用AI撰写论文。79.6%的医生直言现行法规"完全不足"。
地域与职级差异
来自土耳其中部安纳托利亚地区(占34%)和马尔马拉地区(27.2%)的医生构成主要受访群体。序数回归显示,接受过AI培训的医生知识水平显著提高(β=30.534,p<0.001),但教育背景并未减轻其伦理忧虑。
讨论部分揭示了三个关键启示:首先,AI教育需求与供给的严重失衡呼唤专业学会和医学院校建立系统化培训体系;其次,技术乐观主义必须与伦理审慎并行,特别是在涉及患者安全的临床决策环节;最后,跨国协作的监管框架亟待建立,以应对AI在医疗领域引发的责任认定难题(68%医生认为软件开发者应分担错误责任)。
这项研究的价值不仅在于首次描绘了土耳其肿瘤科医生的AI认知图谱,更提出了"教育-伦理-监管"三位一体的发展路径。正如作者强调的,AI不应成为替代临床判断的"黑箱",而应是增强医生决策能力的"智能听诊器"。未来研究需要追踪教育干预的效果,并探索文化因素如何影响医生对技术的接纳程度。


生物通微信公众号
知名企业招聘