Using generated data to improve the performance of downstream discriminative models has recently gained popularity due to the great development of pre-trained language models. In most previous studies, generative models and discriminative models are trained separately and thus could not adapt to any changes in each other. As a result, the generated samples can easily deviate from the real data distribution, while the improvement of the discriminative model quickly reaches saturation. Generative adversarial networks (GANs) train generative models via an adversarial process with discriminative models to achieve joint training. However, the training of standard GANs is notoriously unstable and often falls short of convergence. In this paper, to address these issues, we propose a $\textit{self-consistent learning}$ framework, in which a discriminator and a generator are cooperatively trained in a closed-loop form. The discriminator and the generator enhance each other during multiple rounds of alternating training until a scoring consensus is reached. This framework proves to be easy to train and free from instabilities such as mode collapse and non-convergence. Extensive experiments on sentence semantic matching demonstrate the effectiveness of the proposed framework: the discriminator achieves 10+ AP of improvement on the zero-shot setting and new state-of-the-art performance on the full-data setting.


翻译:最近,利用生成数据来提高下游判别模型的性能已经变得越来越流行,这要归功于预训练语言模型的巨大发展。在大多数以前的研究中,生成模型和判别模型是分别训练的,因此它们不能适应彼此的任何变化。结果,生成的样本很容易偏离真实数据分布,而判别模型的改进很快达到饱和。生成对抗网络(GAN)通过判别模型的对抗过程训练生成模型,以实现联合训练。然而,标准GAN的训练非常不稳定,经常无法收敛。在本文中,为了解决这些问题,我们提出了一个“自我一致学习”框架,其中辨别器和生成器以闭环形式合作训练。通过多轮交替训练,辨别器和生成器彼此增强,直至达到评分共识。该框架易于训练,并且不容易出现像模式坍塌和不收敛等不稳定性。在句子语义匹配方面进行的大量实验证明了所提出框架的有效性:辨别器在零样本方案上改进了10+个平均准确率,并在全数据方案上达到了新的最佳性能。

0
下载
关闭预览

相关内容

判别模型,也称为条件模型或反向模型,是一类用于分类或回归的监督机器学习。这些方法通过从观测数据中推断知识来区分决策边界。这与生成模型或正向模型的想法不同,区别模型对底层数据分布的假设更少,而更依赖数据质量。
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
KDD 2019论文解读:异构信息网络上的对抗生成学习
云栖社区
22+阅读 · 2019年8月21日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
生成对抗网络GANs学习路线
专知
36+阅读 · 2019年6月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
22篇论文!增量学习/终生学习论文资源列表
专知
32+阅读 · 2018年12月27日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
19+阅读 · 2020年7月21日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员