Scaling methods have long been utilized to simplify and cluster high-dimensional data. However, the latent spaces derived from these methods are sometimes uninformative or unable to identify significant differences in the data. To tackle this common issue, we adopt an emerging analysis approach called contrastive learning. We contribute to this emerging field by extending its ideas to multiple correspondence analysis (MCA) in order to enable an analysis of data often encountered by social scientists -- namely binary, ordinal, and nominal variables. We demonstrate the utility of contrastive MCA (cMCA) by analyzing three different surveys of voters in Europe, Japan, and the United States. Our results suggest that, first, cMCA can identify substantively important dimensions and divisions among (sub)groups that are overlooked by traditional methods; second, for certain cases, cMCA can still derive latent traits that generalize across and apply to multiple groups in the dataset; finally, when data is high-dimensional and unstructured, cMCA provides objective heuristics, above and beyond the standard results, enabling more complex subgroup analysis.


翻译:长期以来,一直使用定级法来简化和集中高维数据,但从这些方法中得出的潜在空间有时缺乏信息,或无法查明数据的重大差异。为了解决这一共同问题,我们采取了一种新兴的分析方法,称为对比性学习。我们为这个新兴领域作出贡献,将其想法扩大到多个通信分析(MCA),以便能够分析社会科学家经常遇到的数据 -- -- 即二进制、交点和名义变量。我们通过分析欧洲、日本和美国选民的三次不同调查,显示了对比性MCA(cMCA)的效用。我们的结果表明,首先,CMCA可以确定被传统方法忽略的(子)群体中非常重要的层面和差异;第二,对于某些情况,cMCA仍然可以产生潜在的特征,在数据集中泛化并适用于多个群体;最后,当数据是高维和非结构变量时,CMCA提供客观的超标准结果,从而能够进行更复杂的分组分析。

0
下载
关闭预览

相关内容

【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
76+阅读 · 2021年1月30日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
7+阅读 · 2018年10月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
0+阅读 · 2021年3月10日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
7+阅读 · 2020年10月9日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
19+阅读 · 2020年7月21日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
VIP会员
相关VIP内容
【AAAI2021】对比聚类,Contrastive Clustering
专知会员服务
76+阅读 · 2021年1月30日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
人工智能 | NIPS 2019等国际会议信息8条
Call4Papers
7+阅读 · 2019年3月21日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
7+阅读 · 2018年10月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员