We prove a fundamental misalignment in transfer learning: the source regularization that minimizes source risk almost never coincides with the regularization maximizing transfer benefit. Through sharp phase boundaries for L2-SP ridge regression, we characterize the transfer-optimal source penalty $τ_0^*$ for a fixed task alignment. With sufficiently weak alignment, $τ_0^*$ is always larger than the source optimal regularization, however with strong alignment $τ_0^*$ diverges predictably from task-optimal values: requiring stronger regularization in high-SNR regimes and weaker regularization in low-SNR regimes. Additionally, in isotropic settings the decision to transfer is remarkably independent of target sample size and noise, depending only on task alignment and source characteristics. CIFAR-10 and MNIST experiments confirm this counterintuitive pattern persists in non-linear networks.


翻译:我们证明了迁移学习中的一个基本错位现象:最小化源任务风险的源正则化几乎永远不会与最大化迁移效益的正则化相一致。通过L2-SP岭回归的尖锐相边界分析,我们刻画了固定任务对齐条件下迁移最优的源惩罚项$τ_0^*$。在任务对齐足够弱的情况下,$τ_0^*$始终大于源最优正则化;而在强对齐条件下,$τ_0^*$会以可预测的方式偏离任务最优值:在高信噪比(SNR)区域需要更强的正则化,在低信噪比区域则需要更弱的正则化。此外,在各向同性设置中,是否进行迁移的决策与目标样本量和噪声水平显著无关,仅取决于任务对齐度和源任务特征。CIFAR-10和MNIST的实验证实,这种反直觉的模式在非线性神经网络中依然存在。

0
下载
关闭预览

相关内容

专知会员服务
23+阅读 · 2021年8月26日
专知会员服务
17+阅读 · 2021年7月13日
专知会员服务
12+阅读 · 2021年6月20日
专知会员服务
29+阅读 · 2020年10月2日
【NeurIPS2019】图变换网络:Graph Transformer Network
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年8月26日
专知会员服务
17+阅读 · 2021年7月13日
专知会员服务
12+阅读 · 2021年6月20日
专知会员服务
29+阅读 · 2020年10月2日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员