This paper shows that a simple baseline based on a Bag-of-Words (BoW) representation learns surprisingly good knowledge graph embeddings. By casting knowledge base completion and question answering as supervised classification problems, we observe that modeling co-occurences of entities and relations leads to state-of-the-art performance with a training time of a few minutes using the open sourced library fastText.


翻译:本文显示,基于一袋Words(BoW)代表的简单基线可以学习出惊人的好知识图表嵌入。 通过投递知识库完成和回答作为监管分类问题的问答,我们观察到,实体和关系共同存在的模型化导致使用开放源库快图,以几分钟的培训时间进行最先进的性能表现。

4
下载
关闭预览

相关内容

对于给定d个属性描述的示例x=(x1,x2,......,xd),通过属性的线性组合来进行预测。一般的写法如下: f(x)=w'x+b,因此,线性模型具有很好的解释性(understandability,comprehensibility),参数w代表每个属性在回归过程中的重要程度。
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
24+阅读 · 2019年5月18日
Github项目推荐 | 知识图谱文献集合
AI研习社
26+阅读 · 2019年4月12日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
9+阅读 · 2019年11月6日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
24+阅读 · 2019年5月18日
Github项目推荐 | 知识图谱文献集合
AI研习社
26+阅读 · 2019年4月12日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
相关论文
Arxiv
14+阅读 · 2019年11月26日
Arxiv
9+阅读 · 2019年11月6日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
7+阅读 · 2018年3月21日
Top
微信扫码咨询专知VIP会员