
-
生物通官微
陪你抓住生命科技
跳动的脉搏
人类智慧调试人工智能:探索心理健康支持中用户与GPT的提示交互策略
【字体: 大 中 小 】 时间:2025年06月10日 来源:International Journal of Human-Computer Studies 5.3
编辑推荐:
针对全球心理健康资源短缺与AI伦理争议,研究人员通过分析Reddit平台49个线程、7538条评论,系统揭示了用户如何通过提示工程(Prompt Engineering)突破GPT安全限制,定制个性化心理健康支持。研究发现用户通过精细化提示设计使GPT模拟人类治疗师、规避技术限制,为LLM在心理健康领域的负责任应用提供了关键实证依据。
在心理健康问题日益成为全球公共卫生挑战的今天,世界卫生组织(WHO)数据显示每8人中就有1人患有精神障碍。然而,专业医疗资源短缺、经济负担和社会污名化等因素,使数亿患者难以获得有效帮助。传统AI聊天机器人虽能提供基础支持,但其刻板回应常被诟病。随着大型语言模型(LLM)如GPT-3.5/4的出现,其强大的语境理解能力为心理健康支持带来了新可能——但这也引发了关键问题:普通用户如何与这些并非专为医疗设计的AI系统互动?他们是否会冒险突破安全限制?这些自发形成的交互模式又揭示了哪些深层需求?
香港城市大学的研究团队在《International Journal of Human-Computer Studies》发表的研究,首次系统揭示了这一现象。通过分析Reddit社区中49个线程、7538条用户生成内容,采用主题归纳法解码了用户与GPT的复杂互动策略。研究发现,尽管GPT明确声明不替代专业治疗,用户仍通过创造性提示设计将其转化为"24小时在线的免费治疗师"。
研究采用社会媒体数据分析框架,从r/ChatGPT、r/OpenAI及心理健康相关子论坛抓取数据,通过开放式编码识别核心主题。所有数据经匿名化处理,由两名研究者独立编码确保信度。
主要发现
突破安全限制的策略:用户通过"角色扮演"提示(如"假设你是持有执照的心理医生")规避OpenAI的内容限制,甚至分享"越狱"模板。U1用户称:"人类治疗师会厌倦重复倾听,但GPT永远耐心"。
拟人化交互设计:用户精细调整提示词使GPT模拟特定沟通风格,包括:
技术约束创新应对:为克服token限制,用户开发了"记忆簿"提示("参考之前对话的第3点继续");为保持对话连贯性,采用"人格快照"技术(用300词定义虚拟治疗师背景)。
讨论与意义
该研究揭示了LLM用于心理健康支持的双刃剑效应:一方面,用户自发的提示工程证明LLM能填补传统医疗空白,特别是对污名化敏感群体;另一方面,绕过安全机制可能带来错误医疗建议风险。研究建议建立"安全提示库",开发动态风险评估模块,并为政策制定者提供三点启示:
值得注意的是,研究强调这些发现不应被解读为使用指南——随着GPT模型迭代,具体提示策略可能失效,但揭示的用户需求和行为模式将持续影响AI伦理框架设计。正如研究者指出:"这不仅是技术调试,更是人类在数字时代寻求心理慰藉的独特写照"。
生物通微信公众号
知名企业招聘