人工智能驱动的网络安全中的人为因素:认知偏见与信任问题

《Digital Threats: Research and Practice》:Human Factors in AI-Driven Cybersecurity: Cognitive Biases and Trust Issues

【字体: 时间:2025年11月07日 来源:Digital Threats: Research and Practice

编辑推荐:

  人工智能安全应用中,自动化偏见(47%)和确认偏见(37%)显著降低分析师对AI警报的信任度(65%),混合人机模型更受青睐(79%)。

  

摘要

将人工智能(AI)应用于网络安全有望提升威胁检测和响应能力,但其推广受到人为因素的阻碍,尤其是认知偏差和信任问题。本研究基于卡内曼的双过程理论,探讨了自动化偏差(47%)和确认偏差(37%)等认知偏差如何影响安全分析师对AI驱动工具的信任。通过对19位网络安全专业人士的定性访谈,以及对微软、CrowdStrike、Darktrace和IBM提供的AI解决方案的比较分析,我们发现了阻碍AI应用的关键因素,包括可解释性不足和高误报率。研究结果表明,65%的分析师对AI警报持怀疑态度,更倾向于采用人机结合的模型(79%)而非完全自动化的方式。我们提出了可解释AI(XAI)、偏差意识培训以及适应性信任校准等策略来减轻偏差并增强信任。这些发现强调了在网络安全实践中需要设计以用户为中心的AI系统,使其在技术性能与人类认知现实之间取得平衡。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号