Sequence labeling is a fundamental problem in machine learning, natural language processing and many other fields. A classic approach to sequence labeling is linear chain conditional random fields (CRFs). When combined with neural network encoders, they achieve very good performance in many sequence labeling tasks. One limitation of linear chain CRFs is their inability to model long-range dependencies between labels. High order CRFs extend linear chain CRFs by modeling dependencies no longer than their order, but the computational complexity grows exponentially in the order. In this paper, we propose the Neural Latent Dependency Model (NLDM) that models dependencies of arbitrary length between labels with a latent tree structure. We develop an end-to-end training algorithm and a polynomial-time inference algorithm of our model. We evaluate our model on both synthetic and real datasets and show that our model outperforms strong baselines.


翻译:序列标签是机器学习、自然语言处理和许多其他领域的一个基本问题。 序列标签的典型方法是线性链有条件随机字段(CRFs) 。 当与神经网络编码器相结合时,它们在许多序列标签任务中取得非常良好的性能。 线性链通用报告格式的一个局限性是它们无法模拟标签之间的长距离依赖性。 高顺序的通用报告格式通过模拟依赖性不长于其顺序,扩展线性链通用报告格式,但计算复杂性会按顺序急剧增长。 在本文中,我们提出了神经中端依赖性模型(NLDM),该模型可以模拟带有潜伏树结构的标签之间任意长度的依赖性。 我们开发了终端到终端培训算法和模型的多元时间推算法。 我们评估了我们的合成和真实数据集模型,并显示我们的模型超越了强大的基线。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
推荐|深度强化学习聊天机器人(附论文)!
全球人工智能
4+阅读 · 2018年1月30日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
5+阅读 · 2018年5月10日
Arxiv
5+阅读 · 2018年2月26日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
相关论文
Top
微信扫码咨询专知VIP会员