现有的推理任务通常有一个重要的假设,即在推理时总是可以访问输入内容,这需要无限的存储资源,并且在长序列上存在严重的时间延迟。为了在有限的存储资源下对长序列进行有效的推理,记忆增强神经网络引入了一种类似人类的写-读存储器,以一次压缩和记忆长输入序列,尝试只基于该存储器回答后续的查询。但它们有两个严重的缺点: 1)不断地根据当前的信息更新记忆,不可避免地忘记早期的内容; 2)他们不区分什么信息是重要的,平等对待所有内容。在本文中,我们提出了一种基于历史采样器的自监督复述来增强长序列记忆的复述记忆方法。为了缓解早期信息的逐渐遗忘,我们设计了回忆和熟悉任务的自监督预演训练。此外,我们设计了一个历史采样器来选择有信息的片段进行排练训练,使记忆集中在关键信息上。我们通过综合bAbI任务和几个下游任务(包括文本/视频问答和长序列推荐)来评估我们的排练记忆性能。

https://www.zhuanzhi.ai/paper/a9ef9bbbf67e6d52ee9fd6a085a6071e

成为VIP会员查看完整内容
16

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
25+阅读 · 2021年7月8日
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
22+阅读 · 2021年5月27日
专知会员服务
22+阅读 · 2021年2月6日
专知会员服务
25+阅读 · 2020年12月16日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
23+阅读 · 2020年10月13日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
打包看——2018安全与隐私保护论文
计算机研究与发展
7+阅读 · 2019年1月8日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
CCCF专栏:李航 | 人工智能的未来 ——记忆、知识、语言
中国计算机学会
7+阅读 · 2018年3月16日
AAAI 2018 五个论文奖全部揭晓,「记忆增强的蒙特卡洛树搜索」获杰出论文
北京思腾合力科技有限公司
5+阅读 · 2018年2月8日
Arxiv
0+阅读 · 2021年7月28日
VIP会员
相关VIP内容
专知会员服务
25+阅读 · 2021年7月8日
专知会员服务
38+阅读 · 2021年6月3日
专知会员服务
22+阅读 · 2021年5月27日
专知会员服务
22+阅读 · 2021年2月6日
专知会员服务
25+阅读 · 2020年12月16日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
23+阅读 · 2020年10月13日
相关资讯
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
打包看——2018安全与隐私保护论文
计算机研究与发展
7+阅读 · 2019年1月8日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
CCCF专栏:李航 | 人工智能的未来 ——记忆、知识、语言
中国计算机学会
7+阅读 · 2018年3月16日
AAAI 2018 五个论文奖全部揭晓,「记忆增强的蒙特卡洛树搜索」获杰出论文
北京思腾合力科技有限公司
5+阅读 · 2018年2月8日
微信扫码咨询专知VIP会员