Clustering algorithms have significantly improved along with Deep Neural Networks which provide effective representation of data. Existing methods are built upon deep autoencoder and self-training process that leverages the distribution of cluster assignments of samples. However, as the fundamental objective of the autoencoder is focused on efficient data reconstruction, the learnt space may be sub-optimal for clustering. Moreover, it requires highly effective codes (i.e., representation) of data, otherwise the initial cluster centers often cause stability issues during self-training. Many state-of-the-art clustering algorithms use convolution operation to extract efficient codes but their applications are limited to image data. In this regard, we propose an end-to-end deep clustering algorithm, i.e., Very Compact Clusters (VCC), for the general datasets, which takes advantage of distributions of local relationships of samples near the boundary of clusters, so that they can be properly separated and pulled to cluster centers to form compact clusters. Experimental results on various datasets illustrate that our proposed approach achieves better clustering performance over most of the state-of-the-art clustering methods, and the data embeddings learned by VCC without convolution for image data are even comparable with specialized convolutional methods.


翻译:与提供有效数据代表性的深神经网络一起,集群算法有了显著改进,与提供数据有效代表性的深神经网络一道,集群算法也大有改进;现有方法建立在利用抽样分配集成的深自动编码和自培训程序的基础上;然而,由于自动编码器的基本目标侧重于高效率的数据重建,因此所学的空间可能不理想,而且数据组群群群群群群群群群群群群群群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集集集群集群集群集群集群集群集群集群集群集群集群集群集群集集集集集集集群集群集群集群集群集群集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
1+阅读 · 2021年8月12日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
3+阅读 · 2020年2月5日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员