Multi-view clustering, a long-standing and important research problem, focuses on mining complementary information from diverse views. However, existing works often fuse multiple views' representations or handle clustering in a common feature space, which may result in their entanglement especially for visual representations. To address this issue, we present a novel VAE-based multi-view clustering framework (Multi-VAE) by learning disentangled visual representations. Concretely, we define a view-common variable and multiple view-peculiar variables in the generative model. The prior of view-common variable obeys approximately discrete Gumbel Softmax distribution, which is introduced to extract the common cluster factor of multiple views. Meanwhile, the prior of view-peculiar variable follows continuous Gaussian distribution, which is used to represent each view's peculiar visual factors. By controlling the mutual information capacity to disentangle the view-common and view-peculiar representations, continuous visual information of multiple views can be separated so that their common discrete cluster information can be effectively mined. Experimental results demonstrate that Multi-VAE enjoys the disentangled and explainable visual representations, while obtaining superior clustering performance compared with state-of-the-art methods.


翻译:多视角集群是一个长期和重要的研究问题,侧重于不同观点的采矿补充信息,然而,现有工作往往将多种观点的表达方式融合在一起,或处理在一个共同特征空间的集群,这可能导致其纠缠,特别是视觉表达方式。为了解决这一问题,我们提出了一个基于VAE的新型多视角组合框架(Multi-VAE),通过学习分解的视觉表达方式,我们提出了一个全新的VAE多视角组合框架(Multi-VAE),具体地说,我们定义了在基因化模型中一种视觉常见变量和多视图光谱变异变量。之前的视觉-共同变量能够满足大约离散的 Gumbel Softmax分布,这是为提取多种观点的共同组合要素而引入的。与此同时,先前的视图-光谱变量在连续的 Gausian 分布下,用来代表每一种观点的特殊视觉因素。通过控制相互信息能力来分解视图-共同和视觉分解的表达方式,可以将多种观点的连续的视觉信息分离,以便有效挖掘其共同的离散组合信息。实验结果表明多视频-VE拥有不相纠错的组合和解释的视觉表现方式,同时取得高端的图像。

0
下载
关闭预览

相关内容

【WWW2021】神经公平协同过滤的去偏职业推荐
专知会员服务
21+阅读 · 2021年3月18日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
二值多视角聚类:Binary Multi-View Clustering
我爱读PAMI
4+阅读 · 2018年6月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
二值多视角聚类:Binary Multi-View Clustering
我爱读PAMI
4+阅读 · 2018年6月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员