基于大语言模型的生成式多智能体框架:面向内网威胁检测的层次化协同分析

【字体: 时间:2025年06月20日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  为解决传统深度学习方法(DL)在内网威胁检测中存在的过拟合、可解释性差等痛点,Antonino Ferraro团队创新性地将大语言模型(LLM)与层次化多智能体系统结合,提出生成式智能体建模(GABM)框架。该研究在PicoDomain和CERT r5.2数据集上实现86.68%-95.85%准确率,100%召回率,通过链式推理(Chain-of-Thought)增强可解释性,为复杂网络安全场景提供新范式。

  

在数字化浪潮席卷全球的今天,企业内部网络正面临前所未有的安全挑战。与外部黑客攻击不同,内网威胁(Insider Threat)如同潜伏的"特洛伊木马",源自拥有合法系统访问权限的员工或合作伙伴。2020年数据显示,这类事件造成的全球损失高达1145万美元,且金融领域单次事件处理成本突破80万美元。更棘手的是,56%的案例源于员工疏忽,而传统基于规则的系统往往在复杂行为模式前束手无策。

尽管深度学习(DL)技术能分析海量日志数据,但其"黑箱"特性导致决策过程难以追溯,且数据不平衡常引发过拟合——模型可能将99%的精力用于识别正常行为,却漏掉那1%的关键威胁。与此同时,传统智能体建模(ABM)又受限于人工参数设置的局限性,难以真实模拟人类行为的复杂性。这种两难境地呼唤着技术范式的革新。

Antonino Ferraro团队在《Engineering Applications of Artificial Intelligence》发表的研究中,创造性地将大语言模型(LLM)的推理能力与多智能体系统相结合,构建了生成式智能体建模(GABM)框架。该系统的精妙之处在于其层次化架构:底层"专业特工"(Specialized Agents)像训练有素的情报分析师,分别处理网络流量、文件访问等特定日志;顶层的"指挥官"(Supervisor Agent)则像经验丰富的安全主管,综合所有线索做出最终判断。这种分工协作机制,辅以链式推理(Chain-of-Thought)技术,使系统既能"明察秋毫"又"言之有理"。

研究团队采用了两项关键技术:一是基于LLM的智能体行为生成,无需人工定义复杂规则;二是层次化决策机制,通过专业特工初步筛选后由指挥官二次验证。实验数据来自网络行为密集的PicoDomain数据集和包含心理测量指标的CERT r5.2数据集,全面覆盖从突发攻击到长期渗透的威胁谱系。

【方法论】
框架采用模块化设计,专业特工各司其职:网络流量分析特工专注Zeek日志,文件访问特工追踪敏感数据操作轨迹。每个特工生成包含风险评估、证据链和预警等级的三段式报告。指挥官通过加权分析这些报告,最终输出二元判定。这种设计显著降低了单一决策的误判风险。

【实验结果】
在模拟实战测试中,系统交出了亮眼成绩单:对PicoDomain数据集达到86.68%准确率,且所有真实威胁无一漏网(100%召回率),尽管因此产生了13.54%的误报。在更复杂的CERT r5.2测试中,准确率跃升至95.85%,误报率控制在5.95%。尤为关键的是,当研究人员"撤掉"指挥官进行消融实验时,系统性能断崖式下跌,PicoDomain上的误报率飙升至71.71%,印证了层次化决策的关键价值。

【结论与展望】
这项研究为网络安全领域开辟了新路径:首先,LLM驱动的智能体突破了传统ABM的建模瓶颈,使计算机能像人类一样"思考"复杂行为模式;其次,层次化架构在保持高灵敏度的同时有效抑制误报;最后,链式推理技术让AI的决策过程变得透明可审计——这对需要法律追责的场景至关重要。未来,该框架可扩展至钓鱼邮件识别、APT攻击预警等领域,只需调整特工的专业领域提示词(Prompt Engineering)。正如研究者所言,这不仅是技术的进步,更是人机协同防御理念的革新。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号