摘要
多视图聚类能够综合不同视图的互补信息,往往能获得比单一视图更好的效果.然而,传统多视图聚类方法受限于线性和浅层的学习函数,难以表征数据的深层信息;现有的深度学习方法在表征多视图数据时,对多维度的细节特征关注度有所不足.针对这些问题,提出一种基于卷积注意力机制的编码器模型(AEMC),该模型根据不同视图的特定表征,在编码器中融入卷积注意力模块自适应学习各个视图的关键特征,此外,为了优化模型,根据编码器表征,通过对比学习策略构造正负样本,使正样本间的相似度增加,负样本的相似度减少,引导聚类过程从而使其更具鲁棒性.实证结果表明,模型优于当前大多数主流方法,并在E-MNIST、E-FMNIST、VOC和RGB-D数据集上聚类精度比基准模型分别提高了10.2%、8.1%、7.4%和4.9%,在手写数据集E-MNIST和E-FMNIST的聚类准确率分别高于目前最优的对比聚类方法(CoMVC)0.7%和1.3%,在VOC、RGB-D数据集上略低于对比聚类方法(CoMVC).
基金项目
广东省基础与应用基础研究基金(2020A1515011468)
广东省普通高等学校特色创新类项目(2019KTSCX189)
五邑大学港澳联合研发基金(2019WGALH21)