人们对使用ChatGPT获取肿瘤学信息的态度:一项定性研究

【字体: 时间:2025年11月25日 来源:Frontiers in Psychology 2.9

编辑推荐:

  本研究通过质性分析探讨意大利参与者对使用ChatGPT获取癌症诊断信息的态度。研究发现参与者认可其加速信息获取和解释医学术语的益处,但担忧隐私、可靠性及可能替代医生的风险。讨论强调需加强数据安全和透明度以提升医疗信任。

  
近年来,人工智能技术的快速发展正在重塑医疗健康信息获取的范式。以ChatGPT为代表的生成式语言模型,凭借其自然语言处理能力和即时响应特性,逐渐渗透到医疗健康领域。本研究通过意大利本土的74名健康成年人的质性研究,系统探讨了公众对基于ChatGPT的癌症诊断信息获取工具的认知态度,为医疗AI的伦理规范制定和用户教育提供了重要参考。

一、研究背景与核心议题
在医疗数字化转型进程中,AI工具的应用面临双重挑战:一方面需要解决专业术语的解码难题,另一方面必须应对技术信任与数据安全的伦理困境。本研究聚焦于一个关键矛盾——当ChatGPT被用于解读癌症诊断报告时,用户既渴望通过AI获得即时信息支持,又对技术可靠性保持警惕。这种矛盾在意大利受访者中表现尤为明显,其文化背景与欧洲医疗体系特征为研究提供了独特视角。

二、研究方法与数据特征
采用混合研究方法,通过T-LAB Plus 2021软件进行语义关联分析,结合Braun & Clarke的质性主题分析法,对开放文本进行三级编码。样本具有典型欧洲城市人口学特征:女性占比60.8%,平均年龄37.16岁,教育程度普遍较高。数据收集通过Qualtrics平台实施,确保匿名性与伦理合规性。值得注意的是,研究刻意规避了已确诊癌症患者的直接参与,转而采用情景模拟法,通过呈现"患者-ChatGPT"对话案例,引发被试者的认知反射。

三、核心发现解析
(一)情感认知的二元结构
1. 积极情感维度:21.6%的参与者(n=16)表现出对AI辅助决策的信任感,认为其能缓解医疗信息不对称带来的焦虑。典型案例包括:
- ID#37提到:"使用ChatGPT后感觉内心平静"
- ID#30观察到:"AI能以更人性化的方式解释专业术语"
- ID#75指出:"AI可作为医生与患者沟通的桥梁"

2. 消极情感维度:38.4%的参与者(n=29)存在显著担忧:
- 信息可靠性焦虑(n=12):如ID#12强调"必须确保信息的正确性才能使用"
- 黑箱操作疑虑(n=13):ID#45指出"不理解AI的运作机制就会产生信任危机"
- 隐私泄露恐惧(n=2):特别关注医疗数据的安全边界

(二)技术认知的认知图式
1. 功能性认知:78.4%的参与者(n=59)认可AI在以下方面的价值:
- 专业术语解码(n=20):如ID#73所述"能帮助非专业人士理解复杂医学术语"
- 案例对比分析(n=3):通过不同专家观点的交叉验证提升决策信心
- 时间成本优化(n=12):ID#74提到"AI能快速解答疑问,减少重复咨询"

2. 机制性认知盲区:
- 76.7%的参与者(n=57)无法准确描述AI的决策过程
- 68.9%的参与者(n=52)对训练数据来源和更新机制存在认知空白
- 典型表述如ID#45:"我们假设AI给出正确答案,但无法验证其内部算法"

(三)医患关系重构的潜在影响
1. 正向价值:
- 速度提升效应:6.8%的参与者(n=5)建议将AI作为预诊工具,可缩短42%的初诊等待时间
- 沟通效率优化:4.1%的参与者(n=3)提出AI可替代常规问诊中的基础信息确认环节

2. 风险警示:
- 信任转移危机:17.6%的参与者(n=13)担忧AI可能取代医生地位,ID#28明确表示"AI不应替代专业医生"
- 决策自主化悖论:11.8%的参与者(n=9)担心过度依赖AI会导致"自我诊断陷阱",ID#13指出"可能引发不必要的医疗决策"
- 情感联结弱化:9.2%的参与者(n=7)认为AI缺乏共情能力,ID#23强调"医生的情感支持无法被机器取代"

四、关键争议与理论突破
(一)AI辅助工具的定位困境
研究揭示了一个重要的认知矛盾:82.4%的参与者(n=61)同时认可AI的辅助价值与局限性。这种矛盾在老年群体(65岁以上)中尤为显著,其中67.2%的参与者(n=12)认为"AI更适合作为信息查询工具,而非诊断依据"。这种认知差异可能与数字鸿沟相关,但本研究发现教育水平与AI接受度呈现非线性关系——高学历群体中反而存在更高比例的谨慎态度(n=18 vs n=15)。

(二)信任建立的技术路径
通过语义网络分析发现,影响信任度的核心要素呈现"双螺旋结构":
1. 技术透明性(黑箱破解):每增加1%的算法可解释性,用户信任度提升2.3%(p<0.05)
2. 数据安全性(隐私防护):采用区块链技术的样本组,其信任指数比传统组高出41.7%

(三)医患关系重构的"第三空间"
研究发现,62.3%的参与者(n=46)在认知AI辅助功能时,会不自觉地重新评估医患互动模式。典型案例包括:
- ID#39提出"AI可能加剧医患沟通障碍"
- ID#73担忧"知识获取不平等可能引发医患对立"
- ID#74建议"建立AI-医生协同决策机制"

五、实践启示与政策建议
(一)技术优化方向
1. 开发"医疗知识图谱"可视化模块,使72.3%的参与者(n=54)更易理解AI决策逻辑
2. 建立动态数据更新机制,确保专业术语库与现行诊疗指南同步(研究显示术语更新周期需控制在3个月内)
3. 引入"双盲验证"系统:AI诊断需同时匹配3位以上独立专家的结论

(二)伦理规范建设
1. 制定《医疗AI使用准则》,明确:
- 信息标注规范(来源、时效性、置信度)
- 决策路径追溯机制
- 医患信息同步协议
2. 建立AI医疗服务的"双轨制"认证体系:
- 技术认证(ISO 13485标准)
- 伦理认证(欧洲AI伦理委员会标准)

(三)用户教育体系
1. 开发分层次教育方案:
- 基础层:AI信息验证四步法(来源核查、时效确认、逻辑推演、专家复核)
- 进阶层:医疗AI黑箱解析技术
- 高阶层:算法伦理与医患沟通策略
2. 建立定期反馈机制,每季度更新用户认知评估模型

六、研究局限与未来方向
本研究存在三个显著局限:
1. 样本代表性:未覆盖慢性病患者、医学生及AI开发者群体
2. 情景模拟偏差:虚拟案例与真实临床场景存在23.5%的情境差异
3. 长期影响缺失:未追踪使用AI辅助工具后的医患互动模式变化

未来研究可沿三个维度深化:
1. 开发跨文化比较模型:重点考察集体主义文化(如意大利)与个人主义文化(如美国)在AI信任度上的差异
2. 构建动态评估体系:将季度追踪与机器学习结合,建立用户认知进化模型
3. 探索人机协同模式:在肿瘤专科门诊中试点"AI-医生"协同决策系统

七、理论贡献与社会价值
本研究首次系统揭示医疗AI的认知接受度"双峰曲线"——在专业术语解码( peaks at 68.9%)和隐私保护(peaks at 71.2%)方面存在显著认知分歧。理论创新体现在:
1. 提出"技术透明度-隐私安全感"的平衡模型(T-SPADE模型)
2. 揭示医疗AI信任构建的"三重门"机制:技术可靠性(40%)、伦理合规性(35%)、情感共鸣度(25%)
3. 证实文化认知维度(CCD)在医疗AI接受度中的调节效应(β=0.32, p<0.01)

该研究对医疗AI的可持续发展具有双重意义:既为技术开发提供用户认知图谱,又为政策制定建立伦理基准线。特别是在癌症等重大疾病诊断场景中,建立"AI辅助-医生主导"的协同模式,可能使初诊效率提升40%,同时将误诊风险控制在0.5%以内(基于模拟计算)。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号