A phenomenon known as ''Neural Collapse (NC)'' in deep classification tasks, in which the penultimate-layer features and the final classifiers exhibit an extremely simple geometric structure, has recently attracted considerable attention, with the expectation that it can deepen our understanding of how deep neural networks behave. The Unconstrained Feature Model (UFM) has been proposed to explain NC theoretically, and there emerges a growing body of work that extends NC to tasks other than classification and leverages it for practical applications. In this study, we investigate whether a similar phenomenon arises in deep Ordinal Regression (OR) tasks, via combining the cumulative link model for OR and UFM. We show that a phenomenon we call Ordinal Neural Collapse (ONC) indeed emerges and is characterized by the following three properties: (ONC1) all optimal features in the same class collapse to their within-class mean when regularization is applied; (ONC2) these class means align with the classifier, meaning that they collapse onto a one-dimensional subspace; (ONC3) the optimal latent variables (corresponding to logits or preactivations in classification tasks) are aligned according to the class order, and in particular, in the zero-regularization limit, a highly local and simple geometric relationship emerges between the latent variables and the threshold values. We prove these properties analytically within the UFM framework with fixed threshold values and corroborate them empirically across a variety of datasets. We also discuss how these insights can be leveraged in OR, highlighting the use of fixed thresholds.


翻译:在深度分类任务中,一种被称为“神经坍缩(NC)”的现象——即倒数第二层特征与最终分类器展现出极其简单的几何结构——近来引起了广泛关注,人们期望借此深化对深度神经网络行为的理解。无约束特征模型(UFM)被提出以从理论上解释NC,并且越来越多的研究将NC扩展至分类以外的任务,并将其应用于实际场景。在本研究中,我们通过结合序数回归(OR)的累积链接模型与UFM,探究了深度序数回归任务中是否会出现类似现象。我们证明了一种称为“序数神经坍缩(ONC)”的现象确实会出现,并具有以下三个特征:(ONC1)当施加正则化时,同一类别中的所有最优特征坍缩至其类内均值;(ONC2)这些类别均值与分类器对齐,即它们坍缩到一个一维子空间上;(ONC3)最优潜变量(对应于分类任务中的逻辑值或预激活值)按照类别顺序对齐,特别是在正则化趋近于零的极限情况下,潜变量与阈值之间呈现出高度局部化且简单的几何关系。我们在固定阈值的UFM框架内解析地证明了这些性质,并在多个数据集上进行了实证验证。我们还讨论了如何将这些见解应用于序数回归,重点探讨了固定阈值的应用价值。

0
下载
关闭预览

相关内容

【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员