人工智能与安全:潜藏风险与防御策略研究

【字体: 时间:2025年08月22日 来源:ITNOW

编辑推荐:

  来自Software Strategy Consulting和Cydrill Software Security的研究人员针对生成式AI工具引发的网络安全新漏洞开展专题研究,揭示了AI技术应用中亟待关注的安全威胁,为IT从业者提供了前瞻性防御策略。该成果通过英国计算机学会诺丁汉分会专题报告呈现,对AI安全领域具有重要警示意义。

  

当生成式人工智能(Generative AI)技术迅猛发展之际,软件战略咨询(Software Strategy Consulting)与Cydrill软件安全专家联合为英国计算机学会(BCS)诺丁汉分会带来了一场发人深省的研讨。研究聚焦AI技术浪潮中涌现的新型安全漏洞(Vulnerabilities),系统阐释了大型语言模型(LLM)等工具可能被恶意利用的潜在风险路径。

技术团队通过实证分析揭示,生成式AI在代码自动生成、文本创作等场景中,可能引发训练数据泄露(Data Leakage)、提示词注入(Prompt Injection)等非传统安全威胁。更值得警惕的是,攻击者可能通过对抗样本(Adversarial Examples)操纵AI系统输出。这些发现为AI应用安全部署提供了关键的技术参考框架(Framework)。

研讨特别强调,IT专业人员需建立AI-specific的安全防护体系,包括但不限于:模型逆向防护(Model Hardening)、输入输出过滤(IO Filtering)等创新性防御措施。该研究为正处于数字化转型中的企业提供了重要的安全实践指南。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号