每天都会生成大量的非结构化文本数据,涵盖从新闻文章到科学论文等内容。如何从这些文本数据中挖掘结构化知识依然是一个关键的研究问题。最近,大语言模型(LLMs)凭借其卓越的文本理解能力和指令跟随能力,为文本挖掘领域带来了新的希望。通常有两种利用LLMs的方法:一是通过人工标注的训练数据对LLMs进行微调,这需要大量的人工投入,难以扩展;二是在零样本或少样本的情况下提示LLMs,这种方法无法充分利用海量文本数据中的有用信息。因此,在大语言模型时代,如何从海量文本数据中自动挖掘结构化知识仍然是一个挑战。在本教程中,我们将介绍使用语言模型进行结构化知识挖掘的最新进展,重点介绍弱监督学习方法。我们将涵盖以下主题:

  1. 大语言模型的介绍,它是近期文本挖掘任务的基础;
  2. 本体构建,自动从海量语料库中丰富本体;
  3. 在平面和层次化标签空间中的弱监督文本分类;
  4. 弱监督信息抽取,提取实体和关系结构。https://yzhan238.github.io/kdd24-tutorial/ 幻灯片
  • 介绍
  • 第一部分:文本分析中的语言基础模型
  • 第二部分:分类体系的构建与丰富
  • 第三部分:弱监督文本分类
  • 第四部分:弱监督信息抽取
  • 结论

成为VIP会员查看完整内容
30

相关内容

【WWW2024教程】大型语言模型驱动智能体,附slides
专题综述 | 大语言模型中的知识生命周期
专知会员服务
57+阅读 · 4月16日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
资源 | 机器学习必知的15大框架,欢迎补充!
数据分析
19+阅读 · 2018年9月11日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
24+阅读 · 2018年2月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员