神经语言模型,随着规模的增长,继续以完全荒谬和违反直觉的错误给我们带来惊喜,尽管它们在许多排行榜上的其他方面表现出色。在本次演讲中,我将提出,是时候挑战目前建立在大规模自监督神经网络之上的特定任务监督的主导范式了。首先,我将强调无监督推理时间算法的重要性,通过灵活的可微推理和使用谓词逻辑的离散推理,可以大大改善现成的神经语言模型。接下来,我将强调将符号知识图谱中编码的显式和声明性知识与神经语言模型中编码的隐式和观察性知识融合在一起的重要性,以及ATOMIC 10x和COMET的最新更新,展示了一个机器编写的知识库,首次在所有标准(规模、准确性和多样性)上都超过了人工编写的知识库。

成为VIP会员查看完整内容
31

相关内容

【NAACL2022】信息提取前沿
专知会员服务
58+阅读 · 2022年7月11日
专知会员服务
65+阅读 · 2021年2月17日
【AAAI2021】以事件为中心的自然语言理解,256页ppt
专知会员服务
73+阅读 · 2021年2月8日
【斯坦福CS520】向量空间中嵌入的知识图谱推理,48页ppt
专知会员服务
101+阅读 · 2020年6月11日
论文浅尝 | C3KG:中文常识对话知识图谱
开放知识图谱
2+阅读 · 2022年8月18日
论文浅尝 | 记忆推理:最近邻知识图谱嵌入
开放知识图谱
2+阅读 · 2022年7月23日
论文浅尝 - ACL2022 | 面向推理阅读理解的神经符号方法
开放知识图谱
1+阅读 · 2022年3月21日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
26+阅读 · 2019年3月5日
VIP会员
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员