While deep learning through empirical risk minimization (ERM) has succeeded at achieving human-level performance at a variety of complex tasks, ERM generalizes poorly to distribution shift. This is partly explained by overfitting to spurious features such as background in images or named entities in natural language. Synthetic data augmentation followed by empirical risk minimization (DA-ERM) is a simple yet powerful solution to remedy this problem. In this paper, we propose data augmented invariant regularization (DAIR). The idea of DAIR is based on the observation that the model performance (loss) is desired to be consistent on the augmented sample and the original one. DAIR introduces a regularizer on DA-ERM to penalize such loss inconsistency. Both theoretically and through empirical experiments, we show that a particular form of the DAIR regularizer consistently performs well in a variety of settings. We apply it to multiple real-world learning problems involving domain shift, namely robust regression, visual question answering, robust deep neural network training, and task-oriented dialog modeling. Our experiments show that DAIR consistently outperforms ERM and DA-ERM with little marginal cost and setting new state-of-the-art results in several benchmarks.


翻译:虽然通过实验风险最小化(ERM)的深层次学习成功地在各种复杂任务中实现了人类层面的绩效,但机构风险管理一般都无法做到分布式转变,其部分原因在于过度适应图像背景或自然语言名称实体等虚假特征。合成数据增加以及实验风险最小化(DA-ERM)是解决这一问题的一个简单而有力的解决办法。在本文中,我们提议数据增强差异性规范化(DAIR)。DAIR的构想是基于这样的观察,即模型性能(损失)在扩大的样本和原始样本上是想要一致的。DA-ERM引入了一种常规化的DA-ERM,以惩罚这种损失不一致。无论是在理论上,还是通过实验性实验性实验,我们都表明DAIR正规化器的一种特定形式在各种环境中始终表现良好。我们将其应用于多个真实世界的学习问题,涉及领域转变,即强力回归、直观回答、强力的神经网络培训和以任务为导向的对话模型。我们的实验显示,DAIR始终以少量边际成本超越机构风险管理和DA-ERM,并在几个基准中设定新的状态结果。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
专知会员服务
52+阅读 · 2020年9月7日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
105+阅读 · 2020年6月10日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年7月31日
Arxiv
0+阅读 · 2021年12月15日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年7月31日
Top
微信扫码咨询专知VIP会员