「遗忘」在神经网络中的重要性

2019 年 12 月 11 日 极市平台

加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动!

同时提供每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流。关注 极市平台 公众号 ,回复 加群,立刻申请入群~


来源:机器之心@微信公众号

作者:Albert Ierusalem

参与:高璇、张倩


在经典的人工神经网络解释中,隐藏层中的所有神经元最初都是被激活的,为了完成某一特定任务,有必要关闭其中的一些神经元,即有必要「遗忘」所有不必要信息。 本文提出了具有主动遗忘机制的模型——主动遗忘机器(active forgetting machine,AFM)。 该模型包含特殊的神经网络,可以通过禁用多余神经元暂时遗忘不必要的信息,然后激活其他神经元组,以学习和解决某些任务。



引言


人的大脑中有多种遗忘形式,这是一个正常、可适应且必要的学习过程。 其中一个有趣的活跃形式是通过将某一瞬间不必要的信息转移到无意识记忆中,帮助我们把注意力集中在一些特别的任务上。 德国心理学家 Hermann Ebbinghaus 是第一个通过实验研究记忆的人。 他在早期的实验中遇见了一个问题,就是无法证明某些东西已经完全被遗忘了。 因为遗忘的信息仍然会影响人类行为,而且会在未来被唤醒。 因此,遗忘被这样定义——在某一特定时刻无法从记忆中获得信息,而这些信息在早期的记忆中是易于获取的。


后续的记忆实验是在静水椎实螺上进行的,它们的神经细胞非常大,其中的神经都可以被识别出来,对应的功能也有相应的描述。 静水椎实螺依赖某一个神经细胞,没有它就无法学习新技能。 一旦这个细胞被破坏,椎实螺就会失去学习能力,但之前学习到的行为不会被遗忘。 本研究提出的模型将这项功能迁移到人工神经网络当中,并定义了具有主动遗忘机制的架构,因此该模型被命名为主动遗忘机器(AFM)。 AFM 包含特殊的神经网络,可以通过禁用多余神经元暂时遗忘不必要的信息,然后激活其他神经元组,以学习和解决某些任务。

主动遗忘机制


在经典的人工神经网络解释中,隐藏层中的所有神经元最初都是被激活的,为了完成某一特定任务,有必要关闭其中的一些神经元,即有必要「遗忘」所有不必要信息。 在人工神经网络中,激活是指神经元在评估中参与正向传播,在训练中参与反向传播。


虽然多任务处理能力可以实现在多个问题间相互切换,但它在解决单个问题上也很有用。 几乎任何任务都可以分解成几个子任务,分解深度随着基础任务的复杂度而增加。 在多级环境中实现一个目标也是个问题。 当引入主动遗忘机制时,该模型可以通过将任务分解成简单的步骤,并为每个子任务训练独立的神经元组合,从而简化目标。 这个技巧增加了模型选择正确步骤的能力。


基于变分算法 E 的 AFM 模型


主动遗忘机器模型由遗忘网络 V、关联控制器 C 和遗忘算法 E 组成,可以利用它找到最优且最小的必需神经元组 F。 在这个模型中,训练 C 以激活正确神经元 F,V 专注于特殊任务 M。 遗忘网络 V 利用遗忘层,这些遗忘层可在二元掩码上(前向或反向)应用多层神经元。


关联控制器 C 是一个具有输出层大小的神经网络,拥有与 V 遗忘层相同数量的神经元,其中 C 被训练成每次接收任务 M 的任意样本时发出由算法 E 定义的掩码 Ft


基于进化算法 E 的 AFM 模型


例如,如果要解决的问题涉及两个不同的任务 A 和 B,那么达成目标的步骤也会改变。 为了解决这两个问题,模型应该明确定义各组神经元,Fa 是对任务 A 的行为表现反馈。 定义好 Fa 后,模型会训练一个完全不同的神经元组 Fb,以完成任务 B。 一旦两组神经元被定义,根据具体情况,模型可以切换策略,以激活不同的神经元组。


假设


人们普遍认为,人工智能系统还无法处理深层结构的任务。 但这个假设论证了解决这一问题的另一种观点。 人们可以利用主动遗忘系统来解决深层结构任务。 如果主动遗忘系统被引入人工智能系统,可做出如下假设:


  • 遗忘是普遍的层级架构
  • 计划无用悖论


假设 1: 主动神经遗忘过程的层级引发 agent 对环境层级过程的处理。 神经元组 Fh 分配到任务中,神经元子组 Fhh 被分配到子任务中,其中 h 是环境的任务层级。


为了解决任务分层问题,现有的 AI 架构将任务分为不同层级。 在时间抽象上,模型会被分为两个或两个以上的层段,但无法清晰地定义各个层级。 同样也不可能确定某个特定任务最终属于哪一个层级。


有了 AFM,就可在神经元空间进行操作。 神经元被各个任务所定义,虽然模型学习新的任务,但从众多神经元中被选择的神经元可以解决更高级的问题,这使向新任务的迁移学习变得更迅速,因为神经元已经在相同环境中训练用于更普遍的任务中了。


假设 2: 如果只基于经验,系统可以在每种情境下选择正确的行动,那计划就无关紧要了。


在经典概念中,计划是指在面临即将来临的活动过程中采取最优的行动。 如果环境分层深度最小,那为了实现目标而设定完美的计划无疑是可行的。 但如果分级深度不确定,那预测动作的序列会变长而且代价高昂。



Atari 2600 的游戏 MONTEZUMA'S REVENGE 就是论证这些假设的例子。 本研究利用自然语言指导的强化学习,在自然语言指引下提出用自然语言指令进行任务隐式分解。 如果每一组指令都作为一个独立任务呈现,那很可能就从自然语言空间迁移到神经元空间了。 接着当从子任务迁移到子任务时,某些神经元会被激活,这会使 agent 在每一个子任务中都有有益的行动。 如果定性训练架构,那每个子任务就无需进行计划。 agent 能够仅基于经验直接执行操作,以完成下一目标。 所以也不需要计划需要完成的子任务顺序,因为一旦系统在一个子任务中完成了目标,就意味着它已经正确地传递到下一个子任务当中了,子任务的正确性和主目标是相关的。


也不能说计划一无是处。 强化学习计划作为明确的活动也被认为是子任务之一。 在某些情况下,如在其他任务中,agent 可以完成计划。 计划机制被用来设定目标,而且可以定性地确定需要激活的神经元组来解决问题。 将克服遗忘和视觉强化学习与想象目标相结合,可以帮助模型设定一些目标,更正确地激活必要的神经元组。 相比计划策略,这种方法节省了资源,因为所有必要动作的信息都存储在神经元当中。


论文: Catastrophic Importance of Catastrophic Forgetting



论文链接: https://arxiv.org/pdf/1808.07049.pdf


原文链接:https://medium.com/@AIerusalem/catastrophic-importance-of-catastrophic-forgetting-c1c2a245a662




-End-



*延伸阅读




CV细分方向交流群


添加极市小助手微信(ID : cv-mart),备注:研究方向-姓名-学校/公司-城市(如:目标检测-小极-北大-深圳),即可申请加入目标检测、目标跟踪、人脸、工业检测、医学影像、三维&SLAM、图像分割等极市技术交流群(已经添加小助手的好友直接私信),更有每月大咖直播分享、真实项目需求对接、干货资讯汇总,行业技术交流一起来让思想之光照的更远吧~



△长按添加极市小助手


△长按关注极市平台


觉得有用麻烦给个在看啦~  



登录查看更多
0

相关内容

【ICML2020】持续图神经网络,Continuous Graph Neural Networks
专知会员服务
151+阅读 · 2020年6月28日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
77+阅读 · 2020年6月25日
【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
13+阅读 · 2020年6月2日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
33+阅读 · 2020年4月15日
专知会员服务
45+阅读 · 2020年3月6日
【学科交叉】抗生素发现的深度学习方法
专知会员服务
25+阅读 · 2020年2月23日
真正的神经网络,敢于不学习权重
极市平台
4+阅读 · 2019年6月14日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
【学生论坛】详解记忆增强神经网络
中国科学院自动化研究所
104+阅读 · 2018年11月15日
Tree-CNN:一招解决深度学习中的「灾难性遗忘」
基础 | GRU神经网络
黑龙江大学自然语言处理实验室
27+阅读 · 2018年3月5日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
卷积神经网络如何进行图像识别?
AI前线
8+阅读 · 2017年9月22日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Area Attention
Arxiv
5+阅读 · 2019年5月23日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
真正的神经网络,敢于不学习权重
极市平台
4+阅读 · 2019年6月14日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
人工神经网络真的像神经元一样工作吗?
论智
9+阅读 · 2018年11月15日
【学生论坛】详解记忆增强神经网络
中国科学院自动化研究所
104+阅读 · 2018年11月15日
Tree-CNN:一招解决深度学习中的「灾难性遗忘」
基础 | GRU神经网络
黑龙江大学自然语言处理实验室
27+阅读 · 2018年3月5日
从零开始:教你如何训练神经网络
机器之心
5+阅读 · 2017年12月11日
卷积神经网络如何进行图像识别?
AI前线
8+阅读 · 2017年9月22日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
相关论文
Neural Image Captioning
Arxiv
5+阅读 · 2019年7月2日
Area Attention
Arxiv
5+阅读 · 2019年5月23日
Arxiv
8+阅读 · 2019年5月20日
Arxiv
10+阅读 · 2018年2月4日
Top
微信扫码咨询专知VIP会员