Performing fact verification based on structured data is important for many real-life applications and is a challenging research problem, particularly when it involves both symbolic operations and informal inference based on language understanding. In this paper, we present a Program-enhanced Verbalization and Graph Attention Network (ProgVGAT) to integrate programs and execution into textual inference models. Specifically, a verbalization with program execution model is proposed to accumulate evidences that are embedded in operations over the tables. Built on that, we construct the graph attention verification networks, which are designed to fuse different sources of evidences from verbalized program execution, program structures, and the original statements and tables, to make the final verification decision. To support the above framework, we propose a program selection module optimized with a new training strategy based on margin loss, to produce more accurate programs, which is shown to be effective in enhancing the final verification results. Experimental results show that the proposed framework achieves the new state-of-the-art performance, a 74.4% accuracy, on the benchmark dataset TABFACT.


翻译:根据结构化数据进行事实核查对于许多现实应用十分重要,并且是一个具有挑战性的研究问题,特别是当它涉及象征性操作和基于语言理解的非正式推断时。我们在本文件中提出一个增强程序强化的口交和图形注意网络(ProgVGAT),将程序和实施纳入文字推断模型。具体地说,建议用程序执行模型进行口头分析,以积累在表格操作中嵌入的证据。在此基础上,我们建立图形关注核查网络,目的是将口头程序执行、程序结构以及最初的语句和表格等不同证据来源结合起来,以便作出最后的核查决定。为了支持上述框架,我们提议了一个方案选择模块,以基于差值的新培训战略为优化,以产生更准确的程序,这在加强最后核查结果方面证明是有效的。实验结果显示,拟议的框架在基准数据集TABFACT上实现了新的状态性能,即74.4%的精确度。

0
下载
关闭预览

相关内容

图注意力网络(Graph Attention Network,GAT),它通过注意力机制(Attention Mechanism)来对邻居节点做聚合操作,实现了对不同邻居权重的自适应分配,从而大大提高了图神经网络模型的表达能力。
【CIKM2020】神经逻辑推理,Neural Logic Reasoning
专知会员服务
51+阅读 · 2020年8月25日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
129+阅读 · 2020年4月25日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
57+阅读 · 2020年1月10日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
注意力机制介绍,Attention Mechanism
专知会员服务
171+阅读 · 2019年10月13日
【NeurIPS2019】图变换网络:Graph Transformer Network
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
跨越注意力:Cross-Attention
我爱读PAMI
172+阅读 · 2018年6月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Arxiv
13+阅读 · 2019年11月14日
Kernel Graph Attention Network for Fact Verification
Arxiv
3+阅读 · 2019年10月23日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
跨越注意力:Cross-Attention
我爱读PAMI
172+阅读 · 2018年6月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
相关论文
Arxiv
13+阅读 · 2019年11月14日
Kernel Graph Attention Network for Fact Verification
Arxiv
3+阅读 · 2019年10月23日
Factor Graph Attention
Arxiv
6+阅读 · 2019年4月11日
Arxiv
10+阅读 · 2019年2月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年10月18日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员