编辑推荐:
随着生成式人工智能(GenAI)的兴起,其带来的风险日益凸显,如性别偏见、虚假信息等。研究人员开展了关于可信人工智能(AI)系统开发方法的研究,提出了相关分类法。这有助于将伦理、法律和技术原则融入 AI 开发过程,对构建可靠的 AI 系统意义重大。
在科技飞速发展的时代,人工智能(AI)正以前所未有的速度融入人们的生活。生成式人工智能(GenAI)更是异军突起,它能快速生成文本、图像等内容,为人们的创作和生活带来诸多便利。然而,其背后隐藏的问题也逐渐浮出水面。比如,它可能产生性别偏见,在生成内容时对不同性别的描述存在偏差;还会出现深伪技术、错误信息和虚假信息等情况,误导公众。同时,虽然科学界、政府和企业等都意识到需要让 AI 更值得信赖,提出了许多伦理原则,制定了不少指南,但在实际操作中,却缺乏统一标准和系统方法将这些原则融入 AI 开发流程。正是在这样的背景下,为了解决这些难题,推动 AI 朝着可靠、合规且符合伦理的方向发展,研究人员开展了关于可信人工智能(Trustworthy AI)系统开发方法的研究 。该研究成果发表在《Expert Systems with Applications》上,为 AI 的健康发展提供了重要的理论和实践基础。
研究人员采用了系统文献回顾(SLR)的方法。通过广泛查阅相关文献,梳理出以往研究在 AI 伦理、法律和技术方面的成果与不足,以此为依据构建可信 AI 的分类法。
研究结果
- 构建概念框架:将伦理、法律和技术原则整合为统一模型,形成了可信 AI 的概念框架。这一框架明确了可信 AI 不仅要在技术上可靠,还要符合伦理道德和法律规定,三者相互关联,缺一不可。
- 建立详细分类法:构建的分类法将与可信度相关的概念组织成可操作的类别,涵盖合法性(Lawfulness)、有益性(Beneficence)、非恶意性(Non - maleficence)、自主性(Autonomy)、公正性(Justice)、可解释性(Explicability)和技术(Technology)等原则。每个原则又进一步细分,如有益性包括和谐、仁慈、有用等子原则,通过这种细分,使分类法能更细致地涵盖 AI 系统开发中的各种因素。
- 制定需求细化策略:基于分类法制定了需求细化策略,能够根据社会技术原则系统地分解 AI 系统规范。例如在开发聊天机器人时,从不同原则出发,将 “提供可靠的对话支持” 这一初始需求,细化为符合法律合规、保障用户利益、避免伤害等具体要求,确保 AI 系统在各个方面都能达到较高标准。
- 提出适应性 SDLC 模型:提出了一种适应性的软件开发生命周期(SDLC)模型 ——CRISP - TAI,目前该模型正在验证中。它将可信度原则系统地嵌入 AI 开发生命周期的各个阶段,如在业务理解阶段考虑合法性原则,进行监管评估;在数据准备阶段融入非恶意性原则,采取隐私保护措施等,使 AI 开发过程更加规范和可靠。
- 奠定本体论基础:为将分类法发展为正式本体论奠定了基础,有助于未来对可信度进行计算表示和自动评估。这将使得对 AI 系统可信度的评估更加客观、准确,推动 AI 系统的质量提升。
研究结论和讨论
研究构建的分类法和提出的相关策略、模型,对 AI 的发展具有重要意义。它为解决当前 AI 开发中伦理、法律和技术脱节的问题提供了有效途径,通过将这些因素系统地整合到开发过程中,能够提高 AI 系统的可信度,减少潜在风险。同时,该分类法具有灵活性和适应性,可随着 AI 技术的发展不断完善,如针对 GenAI 带来的新挑战,能通过丰富现有原则来应对。不过,该研究也面临一些挑战,比如多原则管理的复杂性、对上下文变化的敏感性以及对从业者判断和专业知识的依赖等。但这些挑战可通过迭代适应和情境定制来克服。未来,研究人员计划将分类法发展为正式本体论,构建完整的可信 AI 生命周期模型,并在更多领域进行实证验证,持续关注新兴监管框架,确保研究成果的持续相关性。这一系列研究为 AI 的可持续发展提供了坚实的理论和实践支持,有望推动 AI 技术在各个领域更加安全、可靠地应用。