【AAAI2021】通过知识到文本转换来测试知识增强的常识性问题回答

2021 年 1 月 17 日 专知



本文提出了一个简洁而有效的基于知识到文本转换的常识问答模型框架,在多个标准的常识问答数据集上进行了深入的测试和分析,并为知识增强的常识问答提供了高性能的基准模型。实验显示:①基于知识到文本转换的常识问答模型是有效且鲁棒的;②融合外部知识对于常识问答任务依然有较大潜力;③目前的常识问答模型还远不能充分发挥知识的潜力——与使用标准知识解释的模型相比,现有模型均有较大性能差距。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“KCQA” 可以获取【AAAI2021】通过知识到文本转换来测试知识增强的常识性问题回答专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【AAAI2021】知识增强的视觉-语言预训练技术 ERNIE-ViL
专知会员服务
25+阅读 · 2021年1月29日
【AAAI2021】对话推理:上下文阅读理解提升回复生成
专知会员服务
43+阅读 · 2021年1月23日
专知会员服务
13+阅读 · 2021年1月18日
【AAAI2021】维基百科检索跳转来回答复杂的问题
专知会员服务
14+阅读 · 2021年1月5日
知识驱动的视觉知识学习,以VQA视觉问答为例,31页ppt
专知会员服务
35+阅读 · 2020年9月25日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
新任务&数据集:视觉常识推理(VCR)
专知
50+阅读 · 2018年12月1日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
12+阅读 · 2018年1月28日
Arxiv
5+阅读 · 2017年7月23日
VIP会员
Top
微信扫码咨询专知VIP会员