
-
生物通官微
陪你抓住生命科技
跳动的脉搏
AI的过度自信反映了人类大脑的状况
【字体: 大 中 小 】 时间:2025年05月22日 来源:AAAS
编辑推荐:
基于人工智能(AI)的代理、聊天机器人和其他工具正日益被许多人用于日常生活。所谓的大型语言模型(LLM)代理,如ChatGPT和Llama,在生成回答时表现出令人印象深刻的流畅性,但经常提供看似可信实则错误的信息。东京大学的研究人员将这一问题与一种人类语言障碍——失语症进行了类比。失语症患者可能说话流利,但会说出无意义或难以理解的语句。这种相似性可能为失语症的诊断提供更好的方法,甚至为寻求改进LLM代理的AI工程师提供启示。
本文由人类撰写,但文本生成AI的使用在许多领域正在增加。随着越来越多的人开始使用和依赖这些工具,确保它们向用户提供正确且连贯的回答和信息的需求也日益增长。许多熟悉的工具,包括ChatGPT等,无论提供什么内容都显得非常流畅。但由于它们产生的内容本质上存在大量虚构,其回答并不总是可靠。如果用户对相关主题不够了解,很容易误以为这些信息是正确的,尤其是考虑到ChatGPT等工具表现出的高度自信。
“你不可能不注意到,一些AI系统在表达清晰的同时仍会产生重大错误,”东京大学国际神经智能研究中心(WPI-IRCN)的渡边隆光教授说。“但让我和团队震惊的是,这种行为与韦尼克失语症患者的行为相似,这些人说话流利但并不总是有意义。这促使我们思考,这些AI系统的内部机制是否与受失语症影响的人类大脑相似,如果是,可能意味着什么。”
为了探索这一想法,团队使用了能量景观分析方法。这一技术最初由物理学家开发,用于可视化磁性金属的能量状态,但最近被应用于神经科学。他们研究了不同类型失语症患者静息状态下的脑活动模式,并将其与几个公开可用的LLM的内部数据进行了比较。在分析中,团队确实发现了一些惊人的相似之处。这些AI模型中数字信息或信号的移动和处理方式,与某些类型失语症(包括韦尼克失语症)患者大脑中部分信号的行为非常相似。
“你可以把能量景观想象成一个表面,上面有一个球。当有曲线时,球可能会滚下并停下来,但当曲线较浅时,球可能会混乱地滚动,”渡边说。“在失语症中,球代表人的大脑状态。在LLM中,它代表模型基于其指令和内部数据集的持续信号模式。”
这项研究有几个意义。对于神经科学来说,它提供了一种可能的新方法,基于内部脑活动而非仅外部症状对失语症等疾病进行分类和监测。对于AI来说,它可能带来更好的诊断工具,帮助工程师从内到外改进AI系统的架构。尽管研究人员发现了这些相似之处,但他们提醒不要做出过多假设。
“我们并不是说聊天机器人有脑损伤,”渡边说。“但它们可能被锁定在一种僵化的内部模式中,限制了它们灵活调用存储知识的能力,就像接受性失语症一样。未来的模型是否能克服这一限制还有待观察,但理解这些内部相似性可能是迈向更智能、更可信AI的第一步。”
Comparison of large language model with aphasia
生物通微信公众号
知名企业招聘