特别是在大规模预训练模型出现后,NLP中的知识一直呈上升趋势。注意力知识的NLP模型可以i)访问无限数量的外部信息;Ii)将参数空间中的知识存储任务委托给知识源;Iii)获取最新信息;Iv)通过选择知识,使预测结果更具可解释性。在本教程中,我们将介绍将知识集成到NLP中的关键步骤,包括来自文本的知识基础,知识表示和融合。本文还将介绍最近在将知识融合到语言理解、语言生成和常识推理方面的最先进应用。

https://github.com/zcgzcgzcg1/WSDM2023_Knowledge_NLP_Tutorial

成为VIP会员查看完整内容
21

相关内容

【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
28+阅读 · 2022年10月17日
「元学习」最新DSAA2021-Tutorial,附视频与83页ppt
专知会员服务
29+阅读 · 2021年10月20日
专知会员服务
75+阅读 · 2021年7月23日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
【ICML2022教程】智能交互式学习,80页ppt
专知
0+阅读 · 2022年7月22日
Python NLP 入门教程
大数据技术
19+阅读 · 2017年10月24日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
Arxiv
4+阅读 · 2023年4月17日
Arxiv
0+阅读 · 2023年4月17日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
28+阅读 · 2021年9月26日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关VIP内容
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
28+阅读 · 2022年10月17日
「元学习」最新DSAA2021-Tutorial,附视频与83页ppt
专知会员服务
29+阅读 · 2021年10月20日
专知会员服务
75+阅读 · 2021年7月23日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
183+阅读 · 2020年8月6日
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
相关论文
微信扫码咨询专知VIP会员