从SE(安全工程)的角度看大型语言模型(LLMs):代码生成中的偏见、代码可解释性以及代码安全风险
《ACM Computing Surveys》:SE Perspective on LLMs: Biases in Code Generation, Code Interpretability, and Code Security Risks
【字体:
大
中
小
】
时间:2025年11月07日
来源:ACM Computing Surveys
编辑推荐:
大语言模型(LLMs)在生成代码时存在偏见问题,导致歧视性代码、解释不透明和安全隐患,需优化训练数据并引入人工审核。
摘要
大型语言模型(LLMs)凭借生成多样化内容(包括代码)的能力正在改变世界,但其中嵌入的偏见引发了重大担忧。在这篇文章中,我们通过分析训练数据中的偏见如何导致歧视性代码生成、代码解释的不透明性以及安全风险的增加,批判了将LLMs视为绝对可靠工具的普遍观点。基于现有文献(包括软件工程和人工智能伦理学领域的案例研究和理论框架),我们探讨了代码生成中偏见的具体表现形式,重点关注训练数据如何促成这些问题。我们研究了解读LLM生成代码所面临的挑战,强调了缺乏透明度的现象以及潜在的隐藏偏见,并探讨了有偏见的LLMs所带来的安全风险,尤其是可能被恶意行为者利用的漏洞。我们提出了一些缓解这些挑战的建议,强调需要优化训练数据并让人类参与其中。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号