基于信息竞争学习的视觉抽象推理多样化表征方法研究

《ARTIFICIAL INTELLIGENCE REVIEW》:Learning diversified representations for visual abstract reasoning

【字体: 时间:2025年10月09日 来源:ARTIFICIAL INTELLIGENCE REVIEW 13.9

编辑推荐:

  本研究针对视觉抽象推理任务中表征学习效率低下的问题,提出了一种基于互信息约束的信息竞争学习网络(ICNet)。该模型通过双流架构学习互补表征,在Raven's Progressive Matrices(RPM)、PGM等8个基准测试中达到最先进性能(平均准确率99.17%),在分布外关系推理任务中展现出强大泛化能力,为多流视觉抽象推理奠定了理论基础。

  
在人工智能追求通用智能的道路上,流体智力(fluid intelligence)的模拟一直是重大挑战。与依赖已有知识的晶体智力不同,流体智力体现为解决新颖推理问题的能力,而Raven渐进矩阵(Raven's Progressive Matrices,RPM)正是评估这种能力的经典工具。尽管深度学习在图像分类、语言建模等晶体智力任务中取得突破,但在需要抽象推理的流体智力测试中仍显不足。
当前视觉抽象推理领域存在核心瓶颈:单一表征流难以捕捉复杂认知任务所需的多样化信息。哺乳动物大脑视觉系统通过背侧流(dorsal stream)和腹侧流(ventral stream)的并行处理机制分别处理"位置"和"内容"信息,这种高效并行架构为人工智能研究提供了重要启示。然而,如何让神经网络自动学习这种互补表征仍是一个悬而未决的问题。
针对这一挑战,研究人员在《ARTIFICIAL INTELLIGENCE REVIEW》上发表论文,提出了信息竞争学习网络(Information Competition Learning Network,ICNet)。该模型创新性地将互信息理论引入视觉抽象推理,通过最大化表征与目标的互信息,同时最小化不同表征间的互信息,实现表征的多样化学习。
技术方法上,ICNet采用双流编码器结构,通过预测器网络实现表征间的竞争学习,使用规则提取器(rule extractor)模块解析抽象规则,并在RAVEN、I-RAVEN、PGM等8个数据集上进行系统验证。模型通过互信息约束的对抗训练机制,使两个表征流学习互补信息,最终协同决策。
模型架构设计
ICNet包含表征学习模块和规则提取器模块。表征学习模块通过两个预测器G1G2实现信息竞争,最小化表征r1r2的互信息。规则提取器采用残差块结构,通过4个卷积层逐步提取高层次关系特征,最终通过多层感知机进行分类决策。
基准测试性能
在RAVEN风格数据集上,ICNet达到98.62%准确率,较现有最佳方法提升2.73%。在PGM中性数据集上取得99.41%准确率,特别是在分布外推理任务中,ICNet在HO-TP(Held-Out Triple Pairs)子集上的表现较DRNet提升20.29%,证明其强大的泛化能力。
样本效率优势
实验显示ICNet具有卓越的样本效率。仅使用50%训练数据时,其性能已超过PredRNet使用全量数据的结果。在Bongard-LOGO数据集上,ICNet以90.95%的准确率首次超越人类业余水平(83.00%),接近专家水平(94.03%)。
表征可视化分析
通过t-SNE可视化技术发现,ICNet学习的表征在特征空间中呈现清晰的聚类结构。余弦相似度分析表明,两个表征流学习的信息接近正交,印证了互补表征的成功学习。特征图可视化显示,两个流关注图像的不同区域,进一步验证了信息竞争机制的有效性。
研究结论表明,ICNet通过信息竞争机制实现的多样化表征学习,显著提升了视觉抽象推理的性能和泛化能力。该方法不仅在多个人工智能基准测试中创下新纪录,更重要的是提供了一种可扩展的多流学习框架,为理解大脑并行处理机制和开发更通用的人工智能系统提供了新思路。
尽管ICNet在多个几何图像推理任务中表现出色,但在PGM的HO-LT(Held-Out Line Type)和HO-SC(Held-Out Shape Color)等特定分布外设置中仍有提升空间。未来工作将探索如何将该框架扩展到直觉物理、数学思维等更广泛的认知领域,最终实现真正意义上的通用抽象推理能力。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号