Recently, word enhancement has become very popular for Chinese Named Entity Recognition (NER), reducing segmentation errors and increasing the semantic and boundary information of Chinese words. However, these methods tend to ignore the information of the Chinese character structure after integrating the lexical information. Chinese characters have evolved from pictographs since ancient times, and their structure often reflects more information about the characters. This paper presents a novel Multi-metadata Embedding based Cross-Transformer (MECT) to improve the performance of Chinese NER by fusing the structural information of Chinese characters. Specifically, we use multi-metadata embedding in a two-stream Transformer to integrate Chinese character features with the radical-level embedding. With the structural characteristics of Chinese characters, MECT can better capture the semantic information of Chinese characters for NER. The experimental results obtained on several well-known benchmarking datasets demonstrate the merits and superiority of the proposed MECT method.\footnote{The source code of the proposed method is publicly available at https://github.com/CoderMusou/MECT4CNER.


翻译:最近,中国命名实体识别(NER)非常流行用字强化,减少了分化错误,增加了中文词的语义和边界信息,然而,这些方法往往忽略了将词汇信息整合后中国字符结构的信息。中国字符从古代的图片学中演变而来,其结构往往反映更多有关字符的信息。本文展示了一个新的多元数据嵌入基于跨跨跨的嵌入数据(MECT),通过使用中文字符的结构信息改善中国网络的绩效。具体地说,我们使用双流变压器嵌入多元元数据,将中国字符特征与激进层嵌入一体。根据中国字符的结构特征,MECT可以更好地捕捉中国字符的语义信息。从几个著名基准数据集获得的实验结果显示了拟议MECT方法的优点和优越性。\footte{拟议方法的来源代码可在https://github.com/CoderMusou/MECT4CNER上公开查阅。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
元强化学习综述及前沿进展
专知会员服务
61+阅读 · 2021年1月31日
专知会员服务
24+阅读 · 2020年9月11日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
11+阅读 · 2019年6月19日
VIP会员
相关VIP内容
元强化学习综述及前沿进展
专知会员服务
61+阅读 · 2021年1月31日
专知会员服务
24+阅读 · 2020年9月11日
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员