The importance of building semantic parsers which can be applied to new domains and generate programs unseen at training has long been acknowledged, and datasets testing out-of-domain performance are becoming increasingly available. However, little or no attention has been devoted to learning algorithms or objectives which promote domain generalization, with virtually all existing approaches relying on standard supervised learning. In this work, we use a meta-learning framework which targets zero-shot domain generalization for semantic parsing. We apply a model-agnostic training algorithm that simulates zero-shot parsing by constructing virtual train and test sets from disjoint domains. The learning objective capitalizes on the intuition that gradient steps that improve source-domain performance should also improve target-domain performance, thus encouraging a parser to generalize to unseen target domains. Experimental results on the (English) Spider and Chinese Spider datasets show that the meta-learning objective significantly boosts the performance of a baseline parser.


翻译:建立可用于新领域和生成培训中看不见的程式的语义分析器的重要性早已得到确认,而且测试外部功能的数据集也越来越容易获得。然而,几乎没有或根本没有关注能够促进广域化的学习算法或目标,几乎所有现有方法都依赖于标准监督学习。在这项工作中,我们使用一个元学习框架,针对语义分析的零光域概括。我们应用了一个模型-不可知性培训算法,通过从脱节域构建虚拟列车和测试组来模拟零点分解。学习目标利用了一种直觉,即改进源域性功能的梯度步骤也应改善目标域性功能,从而鼓励一个分析器将普通化到看不见的目标领域。(英语)蜘蛛和中国蜘蛛数据集的实验结果显示,元学习目标通过构建虚拟列车和从脱节域测试组模拟零分解。学习目标利用了一种直觉,即提高源域性功能的梯度步骤也应改善目标域性功能,从而鼓励一个分析器将普通到看不见的目标域。(英语)蜘蛛和中国蜘蛛数据集的实验结果显示,元学习目标将大大提升基线派的性能。

1
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【Google】梯度下降,48页ppt
专知会员服务
81+阅读 · 2020年12月5日
专知会员服务
19+阅读 · 2020年9月6日
少标签数据学习,54页ppt
专知会员服务
200+阅读 · 2020年5月22日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
【EMNLP2019教程】端到端学习对话人工智能,附237页PPT下载
专知会员服务
70+阅读 · 2019年11月25日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
5+阅读 · 2020年3月17日
VIP会员
相关VIP内容
最新《自监督表示学习》报告,70页ppt
专知会员服务
86+阅读 · 2020年12月22日
【Google】梯度下降,48页ppt
专知会员服务
81+阅读 · 2020年12月5日
专知会员服务
19+阅读 · 2020年9月6日
少标签数据学习,54页ppt
专知会员服务
200+阅读 · 2020年5月22日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
【EMNLP2019教程】端到端学习对话人工智能,附237页PPT下载
专知会员服务
70+阅读 · 2019年11月25日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员