人工智能与语音助手如何重塑健康信息寻求行为:基于出声思维法的访谈研究
【字体:
大
中
小
】
时间:2025年10月13日
来源:Journal of Medical Internet Research 6
编辑推荐:
本研究探讨了AI和语音辅助技术(如Google AI Overviews、ChatGPT和Alexa)如何影响人们的健康信息寻求行为(HISB)。通过出声思维法访谈27名参与者,研究发现用户会根据情境、紧急程度和熟悉度混合使用多种工具,虽对AI工具持怀疑态度但仍会利用其高效性。该研究揭示了效用常优先于信任,并强调了数字健康素养和跨平台验证的重要性,为理解AI时代的健康信息行为提供了新视角。
在数字时代,人们越来越依赖网络获取健康信息。根据美国疾病控制与预防中心的数据,超过一半的美国人在过去一年中曾在互联网上搜索健康信息。然而,随着人工智能(AI)和语音辅助技术的快速发展,健康信息寻求行为(Health Information–Seeking Behavior, HISB)正在经历重大变革。传统搜索引擎如Google仍占主导地位,但新兴技术如大型语言模型(Large Language Models, LLMs)(例如OpenAI的ChatGPT)和语音助手(如Amazon的Alexa)提供了新的交互方式——它们往往直接给出“一个”答案,而不是引导用户查阅多个来源。这种转变带来了便利,也引发了新的问题:用户如何与这些工具互动?他们是否信任AI生成的健康建议?这些技术是否改变了人们评估信息可信度的方式?
尽管已有大量研究探讨了在线健康信息寻求行为,但大多数模型建立在这些AI工具普及之前。例如,Freimuth等人早在1989年提出的HISB六步模型,强调了从目标设定到信息评估的整个过程。近年来的研究也识别出影响HISB的关键因素,包括年龄、教育水平、健康素养等,并指出效用(utility)、信任(trust)和信息质量是主要驱动因素。然而,AI工具的兴起引入了新的复杂性:它们可能缺乏透明度,存在潜在偏见,甚至无法提供来源引用,这让用户面临更大的误信息风险。同时,早期研究显示,人们对AI的信任取决于任务类型——更愿意相信AI处理机械性任务,而非需要复杂推理或社交互动的任务。语音助手的研究则强调功能可靠性拟人化特征的重要性。
在此背景下,Claire Wardle、Shaydanay Urbani和Eric Wang(均来自美国康奈尔大学传播学系)开展了这项研究,旨在定性探索AI和语音辅助技术如何影响健康信息寻求行为,并评估这些工具是否正在重塑传统模式。他们的论文发表在《Journal of Medical Internet Research》上,通过深入访谈揭示了用户行为的动态变化和上下文依赖性。
研究人员采用出声思维法(Think-Aloud Protocol)进行了定性研究。该方法要求参与者在执行任务时实时口述其思维过程,常用于可用性测试和行为研究。研究招募了27名年龄在19至80岁之间的参与者,通过便利抽样从美国东海岸多个地点(如纽约市、伊萨卡等)选取,以确保样本在年龄、语言背景(包括中文、西班牙语、阿拉伯语等 multilingual 用户)、教育水平和技术经验上的多样性。参与者需在三种平台(Google、ChatGPT和Alexa)上搜索健康信息,包括一个标准化场景(评估圣约翰草对抑郁症的疗效)和一个个人相关的健康查询。访谈过程被录音并转录,最终生成370页文本数据,使用反射性主题分析(Reflexive Thematic Analysis)进行编码和主题识别,重点关注搜索行为、信任感知和平台差异。整个研究遵循伦理批准,参与者获得补偿,数据经过匿名化处理。
Observations Specifically Related to the 3 Technologies:参与者对三种技术表现出复杂态度。Google的AI Overviews(由Gemini驱动)常被跳过, due to 缺乏来源和信任问题,用户更倾向于查看传统搜索结果。Alexa被视为方便但有限,尤其对于深度健康查询,且常出现链接断裂或导向Amazon页面的问题。ChatGPT则因清晰、快速和生成关键词的能力受到青睐,即使 skeptical 用户也利用其进行总结,尽管普遍担忧其来源和偏见。
AI Tools Within Broader Search Behaviors:AI工具常被整合为更广泛搜索策略的“起点”或比较工具,而非孤立使用。用户通常会在AI生成信息后进行额外验证,例如通过Google搜索确认或咨询专业人士,体现了动态的“混合匹配”行为。
Factors Influencing Platform Choice:平台选择取决于多个情境因素,包括健康问题的严重性(更严重时倾向于多平台验证)、信息用途(如准备医生访问)和使用环境(如驾驶时偏好语音助手)。用户 prior experience 和知识水平也影响互动方式,例如多语言用户面临语音识别挑战。
Characteristics That Make People More Likely to “Use” Content From AI-Powered Technologies:用户更可能使用AI生成内容如果它符合先前知识、引用了可信来源(如政府网站或研究),或有助于指导后续搜索。效用和信任并不总一致——许多用户尽管怀疑可信性,仍会因便利性而使用。
Characteristics That Make People Less Likely to “Use” Content From AI-Powered Technologies:降低使用可能性的因素包括缺乏来源、无人监督感、内置偏见担忧、响应过于简短、语音激活问题以及用户体验障碍(如 broken links)。参与者普遍强调人类参与的重要性,担心AI自主生成健康建议。
讨论和结论部分强调,尽管AI工具引入了新 affordances(如实时对话查询),但传统HISB模型仍然适用。研究发现效用常优先于信任,用户基于 perceived usefulness 而非单纯可信度选择工具,这挑战了技术采纳以可信度为主要驱动的假设。同时,研究揭示了AI素养的不足——许多用户误解技术运作方式(如训练数据的影响),且多语言用户面临特定挑战(如口音识别和文化相关性)。此外,AI工具可能强化“回音室”效应(echo chambers),因LLMs倾向于迎合用户现有信念。
重要意义在于,这些发现呼吁加强数字健康素养教育,帮助用户理解新兴工具的能力和局限。鉴于技术的快速演变,纵向研究和实时观察方法至关重要。研究还建议未来工作应关注AI工具的审计、多语言体验以及人类在机器生成信息中的角色。整体上,这项研究为理解AI如何重塑健康信息寻求提供了初步 insights,并突出了在动态环境中保持批判性评估的必要性。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号