With the recent demand of deploying neural network models on mobile and edge devices, it is desired to improve the model's generalizability on unseen testing data, as well as enhance the model's robustness under fixed-point quantization for efficient deployment. Minimizing the training loss, however, provides few guarantees on the generalization and quantization performance. In this work, we fulfill the need of improving generalization and quantization performance simultaneously by theoretically unifying them under the framework of improving the model's robustness against bounded weight perturbation and minimizing the eigenvalues of the Hessian matrix with respect to model weights. We therefore propose HERO, a Hessian-enhanced robust optimization method, to minimize the Hessian eigenvalues through a gradient-based training process, simultaneously improving the generalization and quantization performance. HERO enables up to a 3.8% gain on test accuracy, up to 30% higher accuracy under 80% training label perturbation, and the best post-training quantization accuracy across a wide range of precision, including a >10% accuracy improvement over SGD-trained models for common model architectures on various datasets.


翻译:由于最近需要同时在移动和边缘装置上部署神经网络模型,因此希望改进该模型在隐蔽测试数据上的通用性,并提高该模型在固定点的稳健性能,以便有效部署。不过,尽量减少培训损失对通用性能和定量性能几乎没有什么保障。在这项工作中,我们满足了改进一般化和定量性能的需要,在理论上将其统一在改进模型的稳健性以对抗捆绑重量的扰动性能的框架之下,最大限度地减少赫森矩阵在模型重量方面的密封性值。因此,我们建议HERO,一种赫森加固的稳健性优化方法,通过基于梯度的培训进程尽量减少赫森电子基因值,同时改进一般化和定量性能。HERO在测试精度方面可以达到3.8%的收益,在80%的训练标签下达到30%的更高精度,并在广泛的精确度范围内,包括 >-10%的精确度模型上,在各种共同的SGDA模型上改进了10%的精确度。

0
下载
关闭预览

相关内容

专知会员服务
75+阅读 · 2021年9月27日
专知会员服务
31+阅读 · 2021年6月12日
Python编程基础,121页ppt
专知会员服务
48+阅读 · 2021年1月1日
专知会员服务
52+阅读 · 2020年11月3日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
元学习(Meta Learning)最全论文、视频、书籍资源整理
深度学习与NLP
22+阅读 · 2019年6月20日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度神经网络模型训练中的最新tricks总结【原理与代码汇总】
人工智能前沿讲习班
172+阅读 · 2019年3月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月26日
Arxiv
0+阅读 · 2022年1月24日
Arxiv
6+阅读 · 2021年3月30日
VIP会员
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
元学习(Meta Learning)最全论文、视频、书籍资源整理
深度学习与NLP
22+阅读 · 2019年6月20日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度神经网络模型训练中的最新tricks总结【原理与代码汇总】
人工智能前沿讲习班
172+阅读 · 2019年3月6日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2022年1月26日
Arxiv
0+阅读 · 2022年1月24日
Arxiv
6+阅读 · 2021年3月30日
Top
微信扫码咨询专知VIP会员