We present a bracketing-based encoding that can be used to represent any 2-planar dependency tree over a sentence of length n as a sequence of n labels, hence providing almost total coverage of crossing arcs in sequence labeling parsing. First, we show that existing bracketing encodings for parsing as labeling can only handle a very mild extension of projective trees. Second, we overcome this limitation by taking into account the well-known property of 2-planarity, which is present in the vast majority of dependency syntactic structures in treebanks, i.e., the arcs of a dependency tree can be split into two planes such that arcs in a given plane do not cross. We take advantage of this property to design a method that balances the brackets and that encodes the arcs belonging to each of those planes, allowing for almost unrestricted non-projectivity (round 99.9% coverage) in sequence labeling parsing. The experiments show that our linearizations improve over the accuracy of the original bracketing encoding in highly non-projective treebanks (on average by 0.4 LAS), while achieving a similar speed. Also, they are especially suitable when PoS tags are not used as input parameters to the models.


翻译:我们提出了一个基于括号的编码,可以用来作为n标签序列代表长度 n 的句子上的任何2平面依赖性树,从而提供几乎全部的横过弧的覆盖,以标签分解顺序。 首先,我们显示,作为标签分解的现有括号编码只能处理投影树非常温和的延伸。 其次,我们克服了这一限制,考虑到在树库绝大多数依赖性合成结构中存在的2平面依赖性特性,即依赖性树的弧可分为两个平面,使某一平面的弧不交叉。我们利用这一属性设计一种平衡括号的方法,将属于其中每一平面的弧编码,允许几乎不受限制的非预测性(覆盖率约为99.9%)的分布性特性。 实验表明,在高度非投影树库中,我们的线性编码比原始排入的精确性更好(平均为0.4 LAS),在使用类似速度时,特别适合PoS的标记。

0
下载
关闭预览

相关内容

Brackets 是一个开源的,适合 web 设计师和前端开发者的编辑器,由 Adobe 创立。
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
别说还不懂依存句法分析
人工智能头条
23+阅读 · 2019年4月8日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
1+阅读 · 2021年5月17日
Arxiv
0+阅读 · 2021年5月12日
Hierarchy Parsing for Image Captioning
Arxiv
6+阅读 · 2019年9月10日
Arxiv
8+阅读 · 2018年11月27日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年3月31日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
别说还不懂依存句法分析
人工智能头条
23+阅读 · 2019年4月8日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Arxiv
1+阅读 · 2021年5月17日
Arxiv
0+阅读 · 2021年5月12日
Hierarchy Parsing for Image Captioning
Arxiv
6+阅读 · 2019年9月10日
Arxiv
8+阅读 · 2018年11月27日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年3月31日
Arxiv
3+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员