This paper summarizes our participation in the SMART Task of the ISWC 2020 Challenge. A particular question we are interested in answering is how well neural methods, and specifically transformer models, such as BERT, perform on the answer type prediction task compared to traditional approaches. Our main finding is that coarse-grained answer types can be identified effectively with standard text classification methods, with over 95% accuracy, and BERT can bring only marginal improvements. For fine-grained type detection, on the other hand, BERT clearly outperforms previous retrieval-based approaches.


翻译:本文件总结了我们参与SISWC2020挑战SMART任务的情况。我们感兴趣的一个具体问题是神经方法,特别是变压器模型,如BERT,与传统方法相比,在回答型预测任务上的表现如何。我们的主要结论是粗糙的回答类型可以与标准文本分类方法有效识别,精确率超过95%,而BERT只能带来微小的改进。另一方面,对于精细的型号检测,BERT显然比以前基于检索的方法效果更好。

0
下载
关闭预览

相关内容

国际语义网会议是介绍有关语义、数据和Web的基础研究、创新技术和应用的主要场所。旨在寻找针对语义Web的理论、分析和经验方面的新颖而重要的研究贡献,也鼓励在语义网和其他科学学科交叉领域的研究上做出贡献。提交到研究内容应该描述语义Web上的原创、有意义和可复制的研究。所有的论文必须包括方法评估,是严格的,可重复和可复制的。 官网地址:http://dblp.uni-trier.de/db/conf/semweb/
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT源码分析PART I
AINLP
38+阅读 · 2019年7月12日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
VIP会员
Top
微信扫码咨询专知VIP会员