The existence of multiple datasets for sarcasm detection prompts us to apply transfer learning to exploit their commonality. The adversarial neural transfer (ANT) framework utilizes multiple loss terms that encourage the source-domain and the target-domain feature distributions to be similar while optimizing for domain-specific performance. However, these objectives may be in conflict, which can lead to optimization difficulties and sometimes diminished transfer. We propose a generalized latent optimization strategy that allows different losses to accommodate each other and improves training dynamics. The proposed method outperforms transfer learning and meta-learning baselines. In particular, we achieve 10.02% absolute performance gain over the previous state of the art on the iSarcasm dataset.


翻译:用于讽刺性探测的多个数据集的存在促使我们应用转移学习来利用它们的共性。对抗性神经转移(ANT)框架使用多个损失条件,鼓励源域和目标域特性分布相似,同时优化特定域的性能。然而,这些目标可能存在冲突,可能导致优化困难,有时甚至减少转移。我们提出了一个普遍潜伏优化战略,允许不同的损失相互适应,改善培训动态。拟议方法优于转移学习和元学习基线。特别是,我们比iSarcasm数据集的以往水平实现了1.02%的绝对性性性业绩增益。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
63+阅读 · 2020年12月11日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
3+阅读 · 2018年6月5日
Arxiv
7+阅读 · 2018年3月19日
VIP会员
相关论文
Zero-Shot Object Detection
Arxiv
9+阅读 · 2018年7月27日
Arxiv
7+阅读 · 2018年6月8日
Arxiv
3+阅读 · 2018年6月5日
Arxiv
7+阅读 · 2018年3月19日
Top
微信扫码咨询专知VIP会员