编辑推荐:
现有多视角聚类方法受限于单向学习及错误对比对问题。研究人员提出双向融合深度对比多视角聚类方法(BFCMC),结合相似矩阵与特征矩阵学习统一亲和矩阵,引入 intra-view 与 inter-view 模块。实验表明其性能优于 SOTA,为该领域提供新方向。
在数据爆炸的时代,多视角数据广泛存在于图像、文本、生物医学等领域,如何从多维度信息中精准挖掘样本聚类结构成为关键挑战。传统多视角聚类方法往往陷入 “单向思维” 怪圈:要么仅聚焦相似矩阵(如 AASC、MVGL),要么只关注特征矩阵(如 DiMSC、LTMSC),如同盲人摸象般割裂了两者的内在联系。而基于对比学习的新兴方法虽试图通过跨视角对比损失提升表征判别力,却被错误对比对(即误将同类样本视为异类或反之)的阴影笼罩,导致聚类精度难以突破瓶颈。
为打破这一困局,国内研究团队开展了一项突破性研究,其成果发表在《Expert Systems with Applications》。研究团队瞄准多视角数据聚类中单向学习与错误对比对的核心痛点,提出了双向融合深度对比多视角聚类方法(Bidirectional Fusional Deep Contrastive Multi-View Clustering,BFCMC),旨在构建更贴近真实类别关系的统一表示,为对比学习提供更优质的样本对选择依据。
关键技术方法
研究主要采用以下技术路径:
- 视角专属自编码器:通过神经网络架构(如卷积或全连接层)对各视角高维数据进行编码,获取低维特征嵌入(low-dimensional embeddings),解决高维非线性数据处理难题。
- 双向融合自表示学习:同步利用各视角的亲和矩阵(affinity matrices,表征样本相似性)与低维嵌入,通过联合优化学习统一的自表示矩阵(self-representation matrix),实现相似性结构与特征分布的交互增强。
- 对比学习模块设计:
- intra-view 模块:在同一视角内强制不同类别样本的特征远离,提升类内紧凑性与类间区分度。
- inter-view 模块:跨视角对齐同类样本特征,确保多视角表征的一致性。
- 七大数据集验证:在 3Sources(文本)、BBCSport(文本)、HandWritten4(手写字符)、ORL(人脸)、Caltech101-20(图像)、YaleB(人脸)、BDGP(生物数据)等多领域数据集上开展实验,验证方法普适性。
研究结果
1. 双向融合机制的有效性
通过同时建模亲和矩阵与低维嵌入,BFCMC 学习到的统一亲和矩阵显著优于传统单向方法。在 ORL 人脸数据集上,基于双向融合矩阵的样本对选择使对比学习的准确率(ACC)提升 8.2%,证明该机制能有效过滤错误对比对,引导模型聚焦真实类别关联。
2. 对比模块的协同增益
消融实验表明,intra-view 模块可使 Caltech101-20 图像数据集的归一化互信息(NMI)提升 5.1%,而 inter-view 模块进一步提升 3.7%,二者协同作用使整体聚类性能达到最优。这说明同一视角内的特征判别力增强与跨视角的表征对齐缺一不可。
3. 与 SOTA 方法的全面超越
在七大数据集中,BFCMC 在 ACC、NMI、调整兰德指数(ARI)等核心指标上均显著优于 MVGL、SFMC、OP-LFMVC 等先进方法。例如在 BDGP 生物数据集上,ACC 较次优方法提升 11.5%,展现出在复杂数据结构中的强大建模能力。
结论与意义
本研究打破了多视角聚类中相似矩阵与特征矩阵的单向学习桎梏,通过双向融合机制构建了更具结构性的统一表示,从根源上优化了对比学习的样本选择策略。intra-view 与 inter-view 模块的双重设计,既强化了单视角内的特征判别力,又保障了多视角间的表征一致性,为跨领域多模态数据聚类提供了通用框架。其成果不仅在计算机视觉、自然语言处理等领域具有直接应用价值,更为生物医学中多组学数据(如基因组、蛋白质组)的整合分析开辟了新路径,有望推动精准医疗中疾病亚型分类等关键问题的研究进展。未来,该方法在动态多视角数据(如时序影像)中的扩展应用值得期待。