预训练如何用于文本挖掘?【KDD2022教程】自适应预训练文本表示与挖掘,206页ppt

2022 年 8 月 23 日 专知


从与上下文无关的词嵌入到与上下文相关的语言模型,预训练的文本表示将文本挖掘带入了一个新的时代: 通过在大规模文本语料库上对神经模型进行预处理,然后将其适应于特定任务的数据,可以有效地将通用语言特征和知识转移到目标应用中,并在许多文本挖掘任务中取得了显著的性能。不幸的是,在这种突出的预训练微调范式中存在着一个巨大的挑战:大型的预训练语言模型(PLM)通常需要大量的训练数据来对下游任务进行稳定的微调,而大量的人工注释的获取成本很高。


在本教程中,我们将介绍预训练文本表示的最新进展,以及它们在广泛的文本挖掘任务中的应用。我们专注于不需要大量人工标注的最小监督方法,包括(1)作为下游任务基础的自监督文本嵌入和预训练语言模型,(2)用于基本文本挖掘应用的无监督和远程监督方法,(3)用于从大量文本语料库中发现主题的无监督和种子引导方法,以及(4)用于文本分类和高级文本挖掘任务的弱监督方法


介绍

第一部分: 科学信息提取与分析

第二部分: 科学信息搜索和证据挖掘

第三部分: 主题发现、文本分类和多维文本分析

摘要及未来方向



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PTMR” 就可以获取预训练如何用于文本挖掘?【KDD2022教程】自适应预训练文本表示与挖掘,206页ppt》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
0

相关内容

【KDD2022教程】多模态自动机器学习教程,130页ppt
专知会员服务
76+阅读 · 2022年8月19日
【KDD2022教程】Transformers多模态数据分类,41页ppt
专知会员服务
84+阅读 · 2022年8月18日
【COMPTEXT2022教程】跨语言监督文本分类,41页ppt
专知会员服务
17+阅读 · 2022年6月14日
【微软亚研ICASSP 2022 教程】神经文本语音合成,107页ppt
专知会员服务
27+阅读 · 2022年5月25日
专知会员服务
64+阅读 · 2021年7月25日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
《元强化学习》最新,70页ppt
专知
2+阅读 · 2022年9月16日
《自监督学习》最新报告,45页ppt
专知
1+阅读 · 2022年9月14日
谷歌大脑《自动强化学习》教程,81页ppt!
专知
0+阅读 · 2022年8月15日
【DeepMind】结构化数据少样本学习,51页ppt
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年11月22日
Arxiv
0+阅读 · 2022年11月21日
Arxiv
0+阅读 · 2022年11月20日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
18+阅读 · 2020年10月9日
已删除
Arxiv
32+阅读 · 2020年3月23日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月22日
Arxiv
0+阅读 · 2022年11月21日
Arxiv
0+阅读 · 2022年11月20日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
18+阅读 · 2020年10月9日
已删除
Arxiv
32+阅读 · 2020年3月23日
Top
微信扫码咨询专知VIP会员