《在混沌的边缘?过度的复杂性成为实现通用人工智能的障碍》

《IEEE Transactions on Cybernetics》:Over the Edge of Chaos? Excess Complexity as a Roadblock to Artificial General Intelligence

【字体: 时间:2025年12月23日 来源:IEEE Transactions on Cybernetics 10.5

编辑推荐:

  该研究基于复杂理论探讨AI系统向AGI发展的非线性特征,通过ABM模拟发现系统存在临界点导致性能波动,提出基于随机梯度下降的检测方法并与CUSUM、Lyapunov指数技术对比,揭示大语言模型中"锯齿状能力边界"的临界现象。

  

摘要:

本研究通过复杂性理论的视角探讨了人工智能(AI)系统的发展进程,挑战了传统上对AI向通用人工智能(AGI)进步的线性预测。我们提出存在临界点的观点,这些临界点类似于相变现象:系统复杂性的增加并不一定带来更强的能力,反而可能导致性能停滞或不稳定。为了验证这一假设,我们使用基于代理的建模(ABM)来模拟AI系统的演化,并以评估基准性能作为复杂性的代理指标。我们的模拟研究了系统在跨越临界阈值时可能表现出的特征,即从可预测的改进转变为不规则、波动的行为。实际上,我们开发并验证了一种算法方法来检测这些模拟中的临界转变。我们提出了一种基于启发式随机梯度下降的方法,并将其与已建立的累积和(CUSUM)和李雅普诺夫指数技术进行了比较,以表明可以识别出不同类型的不稳定性特征——从突然的变化到逐渐增加的波动性。我们将这些发现与现实世界现象联系起来,认为在大型语言模型(LLMs)中观察到的“锯齿状能力边界”说明了在临界性出现时可能被显著放大的非线性性能边界。这项研究不仅为理解AI扩展的潜在限制提供了一个新的理论框架,还提供了一种实用的、经过验证的方法来监测AI系统的系统稳定性,为AGI的评估和安全性提供了新的维度。

引言

在当前的人工智能(AI)研究领域,尤其是随着大型语言模型(LLMs)的最新进展,关于AI未来的发展方向和最终潜力的讨论日益增多[1]、[2]、[3]、[4]、[5]、[6]。每次新的迭代和发布,LLMs都在不断打破AI基准记录[7]。学术文献中的讨论开始转向对通用人工智能(AGI)最终出现的更为乐观的看法,即机器具备人类水平的认知能力,能够在广泛的领域中理解、学习和应用知识[1]、[3]、[6],甚至以超级智能的形式超越人类[8]。这种积极的情绪得益于主要基于Transformer架构开发的生成式AI技术的快速进步及其可证明的能力,这些技术旨在模仿人类的反应和创造力[9]、[10]。不仅处于这些技术发展前沿的大型企业开始更加重视AGI,而且许多流行文化也接受了AGI不可避免性的观念,一些经验丰富且知名的研究人员也开始支持这一可能性[2]、[9]。值得注意的是,像OpenAI、Meta和DeepMind这样的领先AI创新者仍然对实现AGI的前景持乐观态度,尽管对于该术语的精确定义及其实现路径尚未达成共识[5],这反映了在未来可预见的时间内AGI的目标可能会不断变化[3]。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号