In ordinary Dimensionality Reduction (DR), each data instance in a high dimensional space (original space), or on a distance matrix denoting original space distances, is mapped to (projected onto) one point in a low dimensional space (visual space), building a layout of projected points trying to preserve as much as possible some property of data such as distances, neighbourhood relationships, and/or topology structures, with the ultimate goal of approximating semantic properties of data with preserved geometric properties or topology structures in visual space. In this paper, the concept of Multi-point Dimensionality Reduction is elaborated on where each data instance can be mapped to (projected onto) possibly more than one point in visual space by providing the first general solution (algorithm) for it as a move in the direction of improving reliablity, usability and interpretability of dimensionality reduction. Furthermore by allowing the points in visual space to be split into two layers while maintaining the possibility of having more than one projection (mapping) per data instance , the benefit of separating more reliable points from less reliable points is dicussed notwithstanding the effort to improve less reliable points. The proposed solution (algorithm) in this paper, named Layered Vertex Splitting Data Embedding (LVSDE), is built upon and extends a combination of ordinary DR and graph drawing techniques. Based on the experiments of this paper on some data sets, the particular proposed algorithm (LVSDE) practically outperforms popular ordinary DR methods visually (semantics, group separation, subgroup detection or combinational group detection) in a way that is easily explainable.


翻译:在普通尺寸减少(DR)中,在高维空间(原始空间)或显示原始空间距离的距离矩阵中,每个数据实例都被映射到(投射到)低维空间(视觉空间)中一个点,对尽可能保存某些数据属性(如距离、邻里关系和/或地形结构)的预测点进行布局,最终目标是将数据与保存的几何属性或视觉空间的地形结构相对应的语义特性相近。在本文中,多点尺寸减少的概念是针对每个数据实例可以被映射到(投到)可能超过视觉空间一个点的(投到)一个点的(投影空间),通过提供第一个一般解决方案(algorithm),试图尽可能保存数据属性的属性,例如距离、相邻关系和/或地形结构结构结构,最终目标是将视觉空间中的各点分成两个层次,同时保持对每个数据实例进行不止一个预测(映射)的可能性,将更可靠的点与较不可靠的直径直径直径的直径直径分解点的好处是,尽管努力改进了S的直径直径直径直径直径直径直径定位,在纸图中,在纸图中,在纸层探测中,在纸层中, 平平图图图图图图图系中,在平图图图图图图中,在平流中,在平图图图中,在平流中,在平流系的平流系系系系系系系系系系系系系系系系系系系系系系系系系的底系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系系。。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
3D Clothed Human Reconstruction in the Wild
Arxiv
0+阅读 · 2022年7月20日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员