模拟大脑功能,这个AI模型真正实现像人一样持续学习

2022 年 9 月 17 日 机器之心

选自techxplore

机器之心编译
编辑:杜伟

本文中,新加坡科技设计大学的研究团队设计了一个受人类大脑启发的 AI 模型,能够自然地进行持续学习,在没有存储数据的类增量学习场景中也表现得很好。


正如图像处理、智能医疗、自动驾驶汽车和智慧城市等各个 AI 领域的突破所展现的那样,深度学习无疑正在经历着黄金期。在未来十年左右,AI 和计算机系统将最终具备类人的学习和思考能力,以处理持续的信息流,与现实世界进行交互。



但是,当前的 AI 模型在连续进行新信息训练时会遭受性能损失。这是因为每当生成新数据时,都会在已有数据之上写入,从而擦除以前的信息。这种效应被称为「灾难性遗忘」。稳定性 - 可塑性困境导致 AI 模型需要更新其记忆以不断地适应新信息,同时保持当前知识的稳定性。这一问题阻止了 SOTA AI 模型持续地从现实世界信息中学习。

同时,边缘计算系统允许将计算从云存储和数据中心转移到原始来源附近,例如连接物联网的设备。在资源有限的边缘计算设备上高效地应用持续学习仍然是一个挑战,尽管领域内也提出了很多持续学习模型来解决这一问题。传统模型需要高计算能力和大存储容量。


最近,新加坡科技设计大学(SUTD)的一个研究团队设计了一种能够实现高能效持续学习系统的新型模型,研究《Continual Learning Electrical Conduction in Resistive-Switching-Memory Materials》发表在了期刊《先进理论与模拟》上。



论文地址:https://onlinelibrary.wiley.com/doi/abs/10.1002/adts.202200226


该团队提出一种受大脑启发的模型—Brain-Inspired Replay(BIR),它可以自然地进行持续学习。BIR 模型基于人工神经网络和变分自编码器来模拟人类大脑的功能,在没有存储数据的类增量学习场景中也能表现得很好。研究者还使用 BIR 模型来表示在数字存储系统中使用电流的导电丝生长。


下图左上为生成式回放设置,右上为训练具有生成式回放的人工神经网络;左下和右下分别为常规以及 BIR 模型的归一化电流精度。



论文通讯作者之一、助理教授 Loke 解释称,「在 BIR 中,知识被保存在训练过的模型中,从而在引入额外任务时将性能损失降至最低,并无需参考以往工作中的数据。因此,这种做法可以大量节能。」


他还补充道,「在无存储数据的情况下,在当前学习任务的合规性挑战上实现了 89% 的 SOTA 准确率,这比传统持续学习模型高了约两倍,并且实现了高能效。」


此外,为了使 BIR 模型能够独立处理现实世界的现场信息,该团队计划在下一阶段的研究中扩展它的可调能力。


Loke 表示,这项研究基于小规模演示,仍处于早期阶段。不过,采用这种方法有望使得边缘 AI 系统在无人类控制的情况下独立发展。


原文链接:https://techxplore.com/news/2022-08-strategies-humans.html



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

登录查看更多
0

相关内容

持续学习(continuallearning,CL) 是 模 拟 大 脑 学 习 的 过 程,按 照 一 定 的 顺 序 对 连 续 非 独 立 同 分 布 的 (independentlyandidenticallydistributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行 增量式更新.持续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极 大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义
【CVPR2022-上海交大】可持续时空预测学习框架
专知会员服务
29+阅读 · 2022年5月14日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
71+阅读 · 2021年9月25日
专知会员服务
25+阅读 · 2021年5月23日
专知会员服务
43+阅读 · 2021年5月19日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
111+阅读 · 2020年6月26日
AI必须会「持续学习」,可以来这里学习
机器之心
1+阅读 · 2022年10月27日
单个GPU也能训练GPT-3!快来看看HP调优新范式吧!
大数据文摘
0+阅读 · 2022年4月10日
开源!腾讯发布超大预训练系统派大星
微信AI
0+阅读 · 2021年10月29日
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年11月23日
Arxiv
0+阅读 · 2022年11月23日
Arxiv
19+阅读 · 2022年10月6日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
27+阅读 · 2020年6月19日
VIP会员
相关VIP内容
【CVPR2022-上海交大】可持续时空预测学习框架
专知会员服务
29+阅读 · 2022年5月14日
最新《计算机视觉持续学习进展》综述论文,22页pdf
专知会员服务
71+阅读 · 2021年9月25日
专知会员服务
25+阅读 · 2021年5月23日
专知会员服务
43+阅读 · 2021年5月19日
持续学习最新综述论文,29页pdf
专知会员服务
117+阅读 · 2021年4月22日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
专知会员服务
111+阅读 · 2020年6月26日
相关基金
国家自然科学基金
22+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月23日
Arxiv
0+阅读 · 2022年11月23日
Arxiv
19+阅读 · 2022年10月6日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
27+阅读 · 2020年6月19日
Top
微信扫码咨询专知VIP会员