“全球人工智能”拥有十多万AI产业用户,10000多名AI技术专家。主要来自:北大,清华,中科院,麻省理工,卡内基梅隆,斯坦福,哈佛,牛津,剑桥...以及谷歌,腾讯,百度,脸谱,微软,阿里,海康威视,英伟达......等全球名校和名企。
这是自我组装推断的QA,可接受多种知识,包括图片和结构化知识库。问答具有复合性,很早就有人引入句法分析判断究竟在问什么,甚至脑洞大开想做自然语言编译器。但他们总是脱离不了手写规则的思维,白白糟蹋了性能卓越的句法分析器。而该模型自动组装多个神经网络用于逻辑推断,拿到了显著的好成绩。
利用这四个组件可以组装分析问题的逻辑流:
目标是训练模型自动分析query,组装逻辑组件。
一个Layout Model,选择问题的layout(应该是逻辑语句的“语法树”)。一个Execution Model,在world representation(应该理解为fact的表示)上执行layout。
这个模型的训练有3步,首先将输入句子解析为依存句法树:
第二步,将句法树的片段分配给合适的逻辑组件:
最后,将逻辑片段组装为完整的layout:
这个layout的root是and逻辑,每个句子可能有多个layout,接下来介绍如何为layout打分
得到问题的LSTM表示,以及特征表示,将两个表示传入多层感知机。每个时刻的梯度是layout的log-probability乘以该layout预测的准确率的梯度。
在知识库上面执行逻辑查询,输入结构化知识库中某种实体的所有representation,流入逻辑树输出每个备选答案的分值,取最大的那个。
就是lookup table,去结构化知识库(数据库)取数据,查出实体的向量表示:
“把全部attention放到第 f(i)个元素上”,真是清丽脱俗的说法呢。
将attention从输入的一部分导向另一部分,条件中含有当前的attention
h
也是把输入的特征拼接起来往多层感知机里面过一下然后softmax。这里的输入应当是遍历所有单词。
有点像集合运算中的交集,只不过是在多个attention上做的乘法:
目标函数是给定world representation和layout下正确答案的最大似然:
直观效果不错:
也拿到了最高分数:
在这个领域知识库上表现也很出色:
虽然在结构化知识库的手写特征利用上没有免俗,但总算自动化了“推断”这个被丑陋规则统治的部分。
AI专家问答平台