【CIKM2021】用领域知识增强预训练语言模型的问题回答

2021 年 11 月 18 日 专知


知识增强预训练语言模型(Knowledge enhanced pre- training language model, K-PLMs)已被证明对许多公共任务是有效的,但在实践中成功应用的却很少。为了解决这一问题,我们提出了一种系统的方法K-AID,包括一个低成本的获取领域知识的过程,一个有效的知识注入模块,以提高模型的性能,以及一个知识蒸馏组件,以减少模型尺寸和部署K-PLMs资源受限的设备(如:CPU)为现实世界的应用。重要的是,我们的方法捕获的是关系知识,而不是像大多数现有的 K-PLMs那样捕获实体知识,这有助于更好地改进句子级别的文本分类和文本匹配任务,这些任务在回答问题(QA)中扮演着关键角色。我们对电子商务、政府、影视三个领域的5个文本分类任务和3个文本匹配任务进行了一系列实验,并在电子商务领域进行了在线A /B测试。实验结果表明,该方法能够在句子水平的问题回答任务上取得显著的提高,在工业环境中带来有益的商业价值。


https://www.zhuanzhi.ai/paper/f2b18d6b3b8fd0eef9f9f6142e452f42



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“KAID” 就可以获取【CIKM2021】用领域知识增强预训练语言模型的问题回答》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【WWW2022】再思考图卷积网络的知识图谱补全
专知会员服务
33+阅读 · 2022年2月15日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
【CIKM2021】基于等效共享记忆研究的神经会话生成模型
专知会员服务
9+阅读 · 2021年11月19日
【CIKM2021-Tutorial】图挖掘公平性,166页ppt
专知会员服务
30+阅读 · 2021年11月5日
专知会员服务
8+阅读 · 2021年9月22日
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
15+阅读 · 2021年8月19日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
CSKG: The CommonSense Knowledge Graph
Arxiv
18+阅读 · 2020年12月21日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员