命名实体识别(NER)(也称为实体标识,实体组块和实体提取)是信息抽取的子任务,旨在将非结构化文本中提到的命名实体定位和分类为预定义类别,例如人员姓名、地名、机构名、专有名词等。

知识荟萃

命名实体识别 Named Entity Recognition 专知荟萃

综述

  1. Jing Li, Aixin Sun,Jianglei Han, Chenliang Li

  2. A Review of Named Entity Recognition (NER) Using Automatic Summarization of Resumes

模型算法

  1. LSTM + CRF中的NCRF++算法: Design Challenges and Misconceptions in Neural Sequence Labeling.COLLING 2018.

  2. CNN+CRF:

  3. BERT+(LSTM)+CRF:

入门学习

  1. NLP之CRF应用篇(序列标注任务)( CRF++的详细解析、Bi-LSTM+CRF中CRF层的详细解析、Bi-LSTM后加CRF的原因、CRF和Bi-LSTM+CRF优化目标的区别) )

  2. Bilstm+CRF中的CRF详解

  3. Bilstm-CRF中的CRF层解析-2

  4. Bilstm-CRF中的CRF层解析-3

  5. CRF和LSTM模型在序列标注上的优劣?

  6. CRF和LSTM的比较

  7. 入门参考:命名实体识别(NER)的二三事

  8. 基础却不简单,命名实体识别的难点与现状

  9. 通俗理解BiLSTM-CRF命名实体识别模型中的CRF层

重要报告

Tutorial

​1.(pyToech)高级:制定动态决策和BI-LSTM CRF(Advanced: Making Dynamic Decisions and the Bi-LSTM CRF) - [https://pytorch.org/tutorials/beginner/nlp/advanced_tutorial.html]

代码

​1.中文命名实体识别(包括多种模型:HMM,CRF,BiLSTM,BiLSTM+CRF的具体实现)

  - [https://github.com/luopeixiang/named_entity_recognition]

领域专家

1.华为-诺亚方舟 - 李航 []

2.美国伊利诺伊大学 - 韩家炜 [https://hanj.cs.illinois.edu/]

命名实体识别工具

  1. Stanford NER
  2. MALLET
  3. Hanlp
  4. NLTK
  5. spaCy
  6. Ohio State University Twitter NER

###相关数据集

  1. CCKS2017 开放的中文的电子病例测评相关的数据。 评测任务一:

  2. CCKS2018 开放的音乐领域的实体识别任务。

评测任务:

  - [https://biendata.com/competition/CCKS2018_2/]
  1. NLPCC2018 开放的任务型对话系统中的口语理解评测。

CoNLL 2003

https://www.clips.uantwerpen.be/conll2003/ner/

进阶论文

1999

2005

2006

2008

2009

2010

2011

2012

2013

2014

2015

2016

2017

2018

2019

2020

VIP内容

电子病历信息抽取技术能够从自由文本电子病历中获取到有用的关键信息,从而为医院的信息管理和后续的信息分析处理工作提供帮助。简要介绍了现阶段自由文本电子病历信息抽取的主要流程,分析了近十几年来关于自由文本电子病历中命名实体、实体修饰与实体间关系三类关键信息的单独抽取以及联合抽取方法的研究成果,对这些成果所采用的主要方法、使用的数据集、最终的实验效果等进行了对比总结。除此之外,还对最新的几种流行方法的特点以及优缺点进行了分析,对目前电子病历信息抽取领域常用数据集进行了总结,分析了目前国内相关领域的现状和发展趋势。

http://www.joca.cn/CN/abstract/abstract24511.shtml

成为VIP会员查看完整内容
0
15

最新论文

State-of-the-art pre-trained models have been shown to memorise facts and perform well with limited amounts of training data. To gain a better understanding of how these models learn, we study their generalisation and memorisation capabilities in noisy and low-resource scenarios. We find that the training of these models is almost unaffected by label noise and that it is possible to reach near-optimal performances even on extremely noisy datasets. Conversely, we also find that they completely fail when tested on low-resource tasks such as few-shot learning and rare entity recognition. To mitigate such limitations, we propose a novel architecture based on BERT and prototypical networks that improves performance in low-resource named entity recognition tasks.

0
0
下载
预览
Top