It is intuitive that NLP tasks for logographic languages like Chinese should benefit from the use of the glyph information in those languages. However, due to the lack of rich pictographic evidence in glyphs and the weak generalization ability of standard computer vision models on character data, an effective way to utilize the glyph information remains to be found. In this paper, we address this gap by presenting Glyce, the glyph-vectors for Chinese character representations. We make three major innovations: (1) We use historical Chinese scripts (e.g., bronzeware script, seal script, traditional Chinese, etc) to enrich the pictographic evidence in characters; (2) We design CNN structures (called tianzege-CNN) tailored to Chinese character image processing; and (3) We use image-classification as an auxiliary task in a multi-task learning setup to increase the model's ability to generalize. We show that glyph-based models are able to consistently outperform word/char ID-based models in a wide range of Chinese NLP tasks. We are able to set new state-of-the-art results for a variety of Chinese NLP tasks, including tagging (NER, CWS, POS), sentence pair classification, single sentence classification tasks, dependency parsing, and semantic role labeling. For example, the proposed model achieves an F1 score of 80.6 on the OntoNotes dataset of NER, +1.5 over BERT; it achieves an almost perfect accuracy of 99.8\% on the Fudan corpus for text classification. Code found at \url{https://github.com/ShannonAI/glyce}.


翻译:对于像中文这样的逻辑语言来说,NLP的任务应该从使用这些语言的胶片信息中受益,这是不言而喻的。然而,由于在格字中缺乏丰富的象像学证据,而且标准计算机视觉模型在字符数据方面一般化能力薄弱,因此仍然无法找到利用格字信息的有效方法。在本文中,我们通过展示Glyce, 用于中文字符表达的胶片驱动器来弥补这一差距。我们做了三大创新:(1) 我们使用历史中国文字(例如,青铜软件脚本、海豹脚本、传统中文等)来丰富字符中的象形证据;(2) 我们设计了CNN结构(称为tiange-CNNN),专门为中文字符图像图像处理而设计的;(3) 我们用图像分类作为多功能学习的辅助任务,以提高模型的概括能力。我们显示,基于Glyph的模型能够在中国NLPP任务中一系列的模版/字符基模型上持续地排出单词/字符基模型的分类。

1
下载
关闭预览

相关内容

BERT进展2019四篇必读论文
专知会员服务
68+阅读 · 2020年1月2日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
【Github】GPT2-Chinese:中文的GPT2训练代码
AINLP
52+阅读 · 2019年8月23日
用 TensorFlow hub 在 Keras 中做 ELMo 嵌入
AI研习社
5+阅读 · 2019年5月12日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
5+阅读 · 2018年5月5日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关VIP内容
BERT进展2019四篇必读论文
专知会员服务
68+阅读 · 2020年1月2日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
【Github】GPT2-Chinese:中文的GPT2训练代码
AINLP
52+阅读 · 2019年8月23日
用 TensorFlow hub 在 Keras 中做 ELMo 嵌入
AI研习社
5+阅读 · 2019年5月12日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员