In this research, we combine Transformer-based relation extraction with matching of knowledge graphs (KGs) and apply them to answering multiple-choice questions (MCQs) while maintaining the traceability of the output process. KGs are structured representations of factual knowledge consisting of entities and relations. Due to the high construction cost, they had been regarded as static databases with validated links. However, the recent development of Transformer-based relation extraction (RE) methods has enabled us to generate KGs dynamically by giving them natural language texts, and thereby opened the possibility for representing the meaning of the input sentences with the created KGs. Using this effect, we propose a method that answers MCQs in the "fill-in-the-blank" format, taking care of the point that RE methods generate KGs that represent false information if provided with factually incorrect texts. We measure the truthfulness of each question sentence by (i) converting the sentence into a relational graph using an RE method and (ii) verifying it against factually correct KGs under the closed-world assumption. The experimental results demonstrate that our method correctly answers up to around 70% of the questions, while providing traceability of the procedure. We also highlight that the question category has a vast influence on the accuracy.


翻译:在本研究中,我们将基于Transformer的关系抽取与知识图谱(KG)匹配相结合,并将其应用于解答多项选择题(MCQ),同时保持输出过程的可追溯性。知识图谱是由实体和关系构成的事实性知识结构化表示。由于构建成本高昂,它们曾被视为具有已验证链接的静态数据库。然而,近期基于Transformer的关系抽取(RE)方法的发展使我们能够通过输入自然语言文本来动态生成知识图谱,从而为利用所创建的知识图谱表示输入句子的含义开辟了可能性。基于这一效应,我们提出了一种解答“填空”格式多项选择题的方法,重点关注了关系抽取方法在输入事实错误文本时会生成表示虚假信息的知识图谱这一问题。我们通过以下方式衡量每个问题句的真实性:(i)使用关系抽取方法将句子转换为关系图;(ii)在封闭世界假设下,将其与事实正确的知识图谱进行验证。实验结果表明,我们的方法能够正确解答约70%的问题,同时提供过程的可追溯性。我们还强调问题类别对准确率具有显著影响。

0
下载
关闭预览

相关内容

【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
专知会员服务
44+阅读 · 2021年7月6日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【WWW2025】基于不确定性的图结构学习
专知会员服务
17+阅读 · 2月20日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
专知会员服务
44+阅读 · 2021年7月6日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员