Clustering algorithms have significantly improved along with Deep Neural Networks which provide effective representation of data. Existing methods are built upon deep autoencoder and self-training process that leverages the distribution of cluster assignments of samples. However, as the fundamental objective of the autoencoder is focused on efficient data reconstruction, the learnt space may be sub-optimal for clustering. Moreover, it requires highly effective codes (i.e., representation) of data, otherwise the initial cluster centers often cause stability issues during self-training. Many state-of-the-art clustering algorithms use convolution operation to extract efficient codes but their applications are limited to image data. In this regard, we propose an end-to-end deep clustering algorithm, i.e., Very Compact Clusters (VCC), for the general datasets, which takes advantage of distributions of local relationships of samples near the boundary of clusters, so that they can be properly separated and pulled to cluster centers to form compact clusters. Experimental results on various datasets illustrate that our proposed approach achieves better clustering performance over most of the state-of-the-art clustering methods, and the data embeddings learned by VCC without convolution for image data are even comparable with specialized convolutional methods.


翻译:与提供有效数据代表性的深神经网络一起,集群算法有了显著改进,与提供数据有效代表性的深神经网络一道,集群算法也大有改进;现有方法建立在利用抽样分配集成的深自动编码和自培训程序的基础上;然而,由于自动编码器的基本目标侧重于高效率的数据重建,因此所学的空间可能不理想,而且数据组群群群群群群群群群群群群群群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集群集集集群集群集群集群集群集群集群集群集群集群集群集群集群集集集集集集集群集群集群集群集群集群集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集集

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年11月3日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
3+阅读 · 2020年2月5日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员