In this paper, we propose second-order graph-based neural dependency parsing using message passing and end-to-end neural networks. We empirically show that our approaches match the accuracy of very recent state-of-the-art second-order graph-based neural dependency parsers and have significantly faster speed in both training and testing. We also empirically show the advantage of second-order parsing over first-order parsing and observe that the usefulness of the head-selection structured constraint vanishes when using BERT embedding.


翻译:在本文中,我们建议使用电文传递和端到端神经网络进行二阶图形神经依赖性分析。我们从经验上表明,我们的方法与最近最先进的二阶图形神经依赖性剖析器的准确性相匹配,在培训和测试中速度都大大加快。我们从经验上还表明,二阶对端对端对端分析的优势,并且指出,在使用BERT嵌入时,头选结构制约的效用会消失。

0
下载
关闭预览

相关内容

【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
30+阅读 · 2020年4月15日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
2020图机器学习GNN的四大研究趋势,21篇论文下载
专知会员服务
135+阅读 · 2020年2月10日
已删除
将门创投
3+阅读 · 2019年1月29日
Arxiv
7+阅读 · 2021年7月5日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
3+阅读 · 2020年4月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Arxiv
9+阅读 · 2018年2月4日
VIP会员
相关资讯
已删除
将门创投
3+阅读 · 2019年1月29日
相关论文
Arxiv
7+阅读 · 2021年7月5日
Arxiv
13+阅读 · 2021年6月14日
Arxiv
7+阅读 · 2021年5月13日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
3+阅读 · 2020年4月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Arxiv
9+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员