深度神经网络的可解释性研究通过基于概念的模型提供了一种有前景的方法,以人类可理解的概念来解释模型行为。另一条平行的研究路径则侧重于将数据分布解缠为其底层生成因子,从而解释数据生成过程。虽然这两种方向都得到了广泛关注,但很少有工作致力于将生成因子解释为概念,从而将数学上解缠的表示与人类可理解的概念统一起来,以用于下游任务的解释。在本文中,我们提出了一种新方法CoLiDR,该方法利用解缠表示学习框架来学习相互独立的生成因子,并随后通过一个新颖的聚合/分解模块将这些表示聚合为人类可理解的概念。我们在具有已知和未知潜在生成因子的数据集上进行了实验。实验结果表明,我们的方法能够成功地将解缠的生成因子聚合为概念,同时与最先进的基于概念的方法保持一致。对学习到的聚合过程的定量和可视化分析显示了我们的方法相较于常用的基于概念的模型在四个具有挑战性的数据集上的优势。最后,我们的方法可以推广到任意数量的概念和生成因子,使其足够灵活,适用于各种类型的数据。

成为VIP会员查看完整内容
13

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
18+阅读 · 7月9日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
25+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
35+阅读 · 2022年10月4日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
20+阅读 · 2022年3月8日
【NeurIPS2021】组合能量概念无监督学习
专知会员服务
13+阅读 · 2021年11月5日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
36+阅读 · 2021年3月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
16+阅读 · 2017年8月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
374+阅读 · 2023年3月31日
Arxiv
62+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【KDD2024】HiGPT:异构图语言模型
专知会员服务
18+阅读 · 7月9日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
25+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
35+阅读 · 2022年10月4日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
20+阅读 · 2022年3月8日
【NeurIPS2021】组合能量概念无监督学习
专知会员服务
13+阅读 · 2021年11月5日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
36+阅读 · 2021年3月28日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
15+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
374+阅读 · 2023年3月31日
Arxiv
62+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
微信扫码咨询专知VIP会员