等变网络专为确保对一组输入变换的一致行为而设计,从而提高样本效率并得到更准确和更稳健的预测。但是,为了达到选择的等变性重新设计现有深度神经网络架构的每个组件是一个困难的问题,这可能导致在训练和推断期间的计算昂贵的网络。最近提出的关于等变性的另一种方法,它去除了架构的限制,是使用一个简单的规范化网络,该网络在将其输入到一个无约束的预测网络之前将输入转换为规范形式。我们在这里展示了这种方法可以有效地用于使大型预训练网络等变。然而,我们观察到产生的规范方向可能与训练分布的方向不一致,从而妨碍了性能。使用与数据集相关的先验信息来告知规范化函数,我们能够使大型预训练模型保持等变性同时保持其性能。这大大提高了这些模型对数据的确定性变换(例如旋转)的稳健性。我们相信,这种大型预训练模型的等变性适应可以帮助其具有已知对称性先验的领域特定应用。

成为VIP会员查看完整内容
31

相关内容

【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
33+阅读 · 2023年10月19日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
46+阅读 · 2023年10月13日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
36+阅读 · 2023年5月27日
【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
25+阅读 · 2023年4月26日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
20+阅读 · 2022年4月20日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
19+阅读 · 2021年5月30日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】动态知识图谱的多事件预测
专知
88+阅读 · 2020年8月31日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
VIP会员
相关VIP内容
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
33+阅读 · 2023年10月19日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
46+阅读 · 2023年10月13日
【ICML2023】知识蒸馏对模型可解释性的影响
专知会员服务
36+阅读 · 2023年5月27日
【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
25+阅读 · 2023年4月26日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【CVPR2022】多视图聚合的大规模三维语义分割
专知会员服务
20+阅读 · 2022年4月20日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
19+阅读 · 2021年5月30日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员