从SE(安全工程)的角度看大型语言模型(LLMs):代码生成中的偏见、代码可解释性以及代码安全风险

《ACM Computing Surveys》:SE Perspective on LLMs: Biases in Code Generation, Code Interpretability, and Code Security Risks

【字体: 时间:2025年11月07日 来源:ACM Computing Surveys

编辑推荐:

  大语言模型(LLMs)在生成代码时存在偏见问题,导致歧视性代码、解释不透明和安全隐患,需优化训练数据并引入人工审核。

  

摘要

大型语言模型(LLMs)凭借生成多样化内容(包括代码)的能力正在改变世界,但其中嵌入的偏见引发了重大担忧。在这篇文章中,我们通过分析训练数据中的偏见如何导致歧视性代码生成、代码解释的不透明性以及安全风险的增加,批判了将LLMs视为绝对可靠工具的普遍观点。基于现有文献(包括软件工程和人工智能伦理学领域的案例研究和理论框架),我们探讨了代码生成中偏见的具体表现形式,重点关注训练数据如何促成这些问题。我们研究了解读LLM生成代码所面临的挑战,强调了缺乏透明度的现象以及潜在的隐藏偏见,并探讨了有偏见的LLMs所带来的安全风险,尤其是可能被恶意行为者利用的漏洞。我们提出了一些缓解这些挑战的建议,强调需要优化训练数据并让人类参与其中。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号