LLM移动应用的取证分析与隐私影响:ChatGPT、Copilot和Gemini的案例研究

【字体: 时间:2025年08月09日 来源:Forensic Science International: Digital Investigation 2.0

编辑推荐:

  推荐:本研究针对大型语言模型(LLM)移动应用存在的隐私泄露和取证价值问题,通过分析ChatGPT、Copilot和Gemini在Android/iOS平台的数据存储模式,发现ChatGPT和Copilot在本地明文存储对话数据,而Gemini将数据存储在云端。研究揭示了LLM应用未经授权获取位置信息等隐私风险,为数字取证提供了关键方法论。

  

随着ChatGPT、Gemini等大型语言模型(LLM)移动应用的爆炸式增长,其在提供智能服务的同时也引发了严峻的隐私和安全问题。这些应用在获取用户位置、存储对话记录等方面存在潜在滥用风险,更可能被用于网络钓鱼、恶意代码生成等犯罪活动。据统计,ChatGPT上线5天即突破百万用户,2024年全球用户达1.8亿,其移动端应用下载量超1亿次。这种快速普及使得LLM应用成为数字取证的新焦点,但现有研究在跨平台分析和隐私影响评估方面存在明显空白。

美国普渡大学(Purdue University)计算机与信息技术系的研究团队在《Forensic Science International: Digital Investigation》发表的研究,首次对三大主流LLM应用(ChatGPT、Copilot和Gemini)开展了系统的跨平台取证分析。研究人员采用NIST标准取证流程,通过root后的Google Pixel 5a(Android 14)和越狱iPhone 13(iOS 16.6.1)设备,使用Magnet AXIOM和GrayKey工具获取完整镜像,重点分析了用户信息、位置数据和对话记录等关键数字证据。

研究发现三大应用呈现显著差异:ChatGPT在Android和iOS均明文存储完整对话记录,其中iOS端会通过IP地址获取用户位置(即使关闭定位服务);Copilot在Android仅存储部分提示片段,而在iOS则完整记录对话内容;Gemini几乎不在设备本地留存数据,所有信息需通过Google Takeout从云端提取。值得注意的是,当用户查询"附近餐厅"时,三个应用都能返回精确位置信息,这与其隐私政策声明的数据收集范围存在明显偏差。

在用户隐私方面,研究发现ChatGPT通过user.json文件记录账户ID和订阅类型,Copilot则存储了包括出生日期、电话号码等敏感信息的完整用户档案。特别值得关注的是,在设备本地发现的对话记录包含完整的恶意提示和AI响应,这对调查网络犯罪具有重要价值。例如在分析Copilot的Cache.db文件时,发现其将拒绝回答的"越狱"提示单独存储,这种日志分类机制可能成为取证突破口。

该研究首次建立了LLM移动应用的取证分析框架,揭示了不同平台的数据存储规律:云原生的Gemini采用"最小化本地存储"策略,而ChatGPT和Copilot则根据平台特性实施差异化存储方案。这些发现不仅为数字取证提供了方法论指导,更暴露出LLM应用在位置数据收集、敏感信息存储等方面的隐私风险。研究人员建议执法机构重点关注iOS设备的fsCachedData目录和Android的HTTP Cache,同时应立法规范LLM应用的数据存储透明度。未来研究可扩展至付费版本分析和数据残留检测,以应对日益复杂的AI辅助犯罪调查需求。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号