This paper presents our systems for the three Subtasks of SemEval Task4: Reading Comprehension of Abstract Meaning (ReCAM). We explain the algorithms used to learn our models and the process of tuning the algorithms and selecting the best model. Inspired by the similarity of the ReCAM task and the language pre-training, we propose a simple yet effective technology, namely, negative augmentation with language model. Evaluation results demonstrate the effectiveness of our proposed approach. Our models achieve the 4th rank on both official test sets of Subtask 1 and Subtask 2 with an accuracy of 87.9% and an accuracy of 92.8%, respectively. We further conduct comprehensive model analysis and observe interesting error cases, which may promote future researches.


翻译:本文件介绍了我们用于SemEval任务4的三个子任务4的系统:阅读抽象含义理解(ReCAM),我们解释了用于学习我们模型和算法调整过程以及选择最佳模型的算法。受RECAM任务和语言培训前任务相似性的影响,我们提出了一个简单而有效的技术,即:与语言模型负增殖。评价结果显示了我们拟议方法的有效性。我们的模型在SubTask 1和Subtask 2两个正式测试组中分别达到第4级,精确度分别为87.9%和92.8%。我们进一步进行了全面的模型分析,并观察了有趣的错误案例,这可能会促进未来的研究。

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
65+阅读 · 2020年7月12日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
自然语言处理NLP之旅(NLP文章/代码集锦)
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
计算机 | EMNLP 2019等国际会议信息6条
Call4Papers
18+阅读 · 2019年4月26日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Arxiv
5+阅读 · 2019年8月22日
Arxiv
6+阅读 · 2018年11月1日
VIP会员
相关VIP内容
专知会员服务
123+阅读 · 2020年9月8日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
65+阅读 · 2020年7月12日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
Top
微信扫码咨询专知VIP会员