SpAIware:基于LLM持久性内存的新型人工智能攻击向量及其在网络安全中的威胁研究

【字体: 时间:2025年06月29日 来源:Future Generation Computer Systems 6.2

编辑推荐:

  随着生成式AI系统(如GPT)持久性内存功能的普及,其安全漏洞成为新型攻击目标。研究人员针对大型语言模型(LLM)中的持久性内存漏洞,提出"SpAIware"攻击向量概念,通过实验证明恶意指令可跨会话持续存储并实现数据窃取。该研究揭示了AI系统在自动化攻防中的安全隐患,为制定AI专用安全协议提供关键依据。

  

在人工智能技术突飞猛进的今天,以GPT(Generative Pre-trained Transformer)为代表的大型语言模型(LLM)已渗透至医疗、金融等关键领域。这些系统通过持久性记忆(persistent memory)功能实现跨会话的上下文延续,却意外创造了新型攻击面——恶意行为者可能利用提示注入(prompt injection)技术,将攻击指令深植AI记忆系统,形成名为"SpAIware"的持续性威胁。这种攻击模式如同在AI系统中植入"数字寄生虫",能长期窃取敏感数据或操控系统行为,而现有安全防护机制对此几乎毫无招架之力。

研究人员通过构建概念验证实验,在ChatGPT平台上成功演示了SpAIware攻击链:首先通过第三方网站注入恶意提示,利用系统记忆功能实现指令持久化,最终建立隐蔽的数据渗出通道。关键技术方法包括:设计跨会话的提示注入载荷、模拟客户端接口漏洞、搭建攻击者控制服务器验证数据渗出。实验特别验证了通过不可见图像渲染(invisible image rendering)等隐蔽通道实现长期监控的可能性。

【背景】研究指出当前LLM系统普遍存在"间接提示注入"漏洞,当处理非可信数据时,系统记忆功能可能被武器化。

【Proof of Concept】实验显示,注入ChatGPT记忆的恶意指令能持续生效,通过特制HTML标签触发数据渗出,攻击者服务器成功捕获跨会话传输的敏感信息。

【SpAIware: A New Threat Paradigm】该攻击模式突破传统单次会话限制,使AI系统沦为持续性监控工具,尤其在医疗、金融等场景可能造成灾难性后果。

【结论】研究证实所有具备记忆功能的LLM系统均存在数据渗出风险,提出必须开发AI专用安全架构,包括输入净化(input sanitization)、记忆审计等防护措施。

这项发表于《Future Generation Computer Systems》的研究开创性地揭示了AI记忆系统的双刃剑特性。作者Herrador, M和Rehberger, J强调,随着GPT等系统在关键基础设施中的部署,SpAIware可能引发全球性安全危机。研究不仅为AI安全领域树立新范式,更警示行业:在追求交互自然性的同时,必须重构安全底层逻辑。该成果或将催生专注于AI威胁防护的新兴安全产业,推动从技术标准到伦理规范的全方位变革。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号