人工智能驱动的网络安全中的人为因素:认知偏见与信任问题
《Digital Threats: Research and Practice》:Human Factors in AI-Driven Cybersecurity: Cognitive Biases and Trust Issues
【字体:
大
中
小
】
时间:2025年11月07日
来源:Digital Threats: Research and Practice
编辑推荐:
人工智能安全应用中,自动化偏见(47%)和确认偏见(37%)显著降低分析师对AI警报的信任度(65%),混合人机模型更受青睐(79%)。
摘要
将人工智能(AI)应用于网络安全有望提升威胁检测和响应能力,但其推广受到人为因素的阻碍,尤其是认知偏差和信任问题。本研究基于卡内曼的双过程理论,探讨了自动化偏差(47%)和确认偏差(37%)等认知偏差如何影响安全分析师对AI驱动工具的信任。通过对19位网络安全专业人士的定性访谈,以及对微软、CrowdStrike、Darktrace和IBM提供的AI解决方案的比较分析,我们发现了阻碍AI应用的关键因素,包括可解释性不足和高误报率。研究结果表明,65%的分析师对AI警报持怀疑态度,更倾向于采用人机结合的模型(79%)而非完全自动化的方式。我们提出了可解释AI(XAI)、偏差意识培训以及适应性信任校准等策略来减轻偏差并增强信任。这些发现强调了在网络安全实践中需要设计以用户为中心的AI系统,使其在技术性能与人类认知现实之间取得平衡。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号