成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
排序、搜索、 动态规划,DeepMind用一个神经算法学习器给解决了
2022 年 10 月 5 日
机器之心
机器之心报道
机器之心编辑部
来
自 DeepMind 等机构的研究者提出了一个通用神经算法学习器,其能够学习解决包括排序、搜索、贪心算法、动态规划、图形算法等经典算法任务,达到专家模型平均水平。
近年来,基于深度神经网络的机器学习系统取得了巨大的进步,尤其是在以感知为主的任务方面。这些模型通常需要在分布内泛化,这意味着它们的训练集和验证集需要有输入预期分布。相比之下,想要模型在推理任务上表现出色,这就要求即使在分布外(out-of-distribution, OOD)泛化时模型也能提供合理的输出。
然而,多数神经网络在 OOD 方面表现不佳。事实上,可以进行神经推理的架构需要算法对齐、自监督学习等其他算法的辅助。更进一步讲,这些模型需要在基于观察的基础上,对生成的新知识有一定的稳健性,特别是当这些知识脱离训练数据域时。
本文中, 来自 DeepMind 等机构的研究者提出一个通用神经算法学习器:具有单一参数集的 GNN,其能够同时学习解决经典算法任务,包括排序、搜索、贪心算法、动态规划、图形算法、字符串算法和几何算法,达到专家模型平均水平。
具体地,该研究利用 CLRS 基准从实证上表明,就像在感知领域取得的成功一样,通用算法学习器可以通过整合知识来构建。也就是说,只要我们能学会在单任务模式下很好地执行算法,就有可能在多任务模式下有效地学习算法。
受此启发,该研究对 CLRS 的输入表示、训练机制和处理器架构进行一系列改进,与现有技术相比,改进后的平均单任务性能提高了 20% 多。然后,本文利用这些改进对多任务学习器进行消融实验。结果表明,通用学习器能够有效地整合由专家模型捕获的知识。
论文地址:https://arxiv.org/pdf/2209.11142.pdf
可以说这项研究是一个重要的里程碑,表明即使在具有完全不同的控制流任务中,该研究也可以有意义地整合推理能力,并在多个任务中超过相应的单任务专家的 OOD 性能。
正如佐治亚理工学院机器学习博士生 Aran Komatsuzaki 所总结的:「本文构建了一个通用神经算法学习器,能够学习执行各种算法的单个 GNN 处理器,例如排序、搜索、动态规划、路径查找和几何。」
研究介绍
研究者提出的通用神经算法学习器如下图 1 所示。
论文第 3 章是主旨部分,主要介绍了表示、训练机制和架构的改进,使得单个模型的性能明显优于之前在 CLRS-30 上发布的 SOTA 技术。
CLRS 基准定义了五种类型的特性:标量(scalar)、分类、掩码、mask_one 和指针,它们都有自己的编码和解码策略以及损失函数。
本文中具体的改进包括但不仅限于:
数据集和训练:移除 teacher forcing。在评估时,模型无法访问数据集中的 hint,只能依靠已有的 hint 进行预测。在先前的模型中,训练期间提供了概率为 0.5 的 ground-truth hint,在没有 teacher forcing 的情况下,当存在 scalar hints 时,损失倾向于沿轨迹无界增长,从而破坏了训练的稳定性。
这项工作整合了几个重要的稳定变化,足以完全消除 teacher forcing 带来的影响,使训练与评估保持一致。由于 teacher forcing 的存在,排序算法和 Kruskal 算法的性能显著下降。在移除了 teacher forcing 之后,本文还对训练数据进行了扩充,以防止模型过拟合。
Soft hint 传播。本文将 softmax 用于分类,mask_one 、指针类型、logistic sigmoid 用于掩码类型。如果没有这些 soft hints,排序算法的性能会下降(类似于有 teacher forcing 的情况)。
利用编码器初始化和梯度裁剪提高训练稳定性。该研究使用 Xavier 进行初始化,从而有效地减少了输入维度仅为 scalar hint 的初始权重。此外,该研究还对编码器、解码器、网络处理器进行了改进。
对模型改进之后得到一组超参数模型,经过训练,该模型在 CLRS-30 上达到了 SOTA 性能。下表 1 和表 2 显示了包括 Memnet、MPNN、PGN 等模型在内的 micro-F_1 得分。
下图 2 显示了改进模型与 SOTA 模型之间的比较。本文的模型比次优模型(见表 1)平均性能提高了 20% 以上,并且除了一个算法系列之外,所有算法的性能都比其他模型有了显著提高。
从实验可以看出,有两个算法系列具有显著的 OOD 性能改进:第一个是几何算法,现在求解接准确率约 94% OOD ,而之前的最佳结果约为 73%;第二个是字符串算法,模型现在求解准确率超过 49%,而之前的最佳值约为 3%。与之前的 SOTA 相比,本文在 24 种算法中准确率超过 60%,17 种算法的准确率超过 80%,11 种算法的准确率超过 90%。
下图 3 比较了单任务 Triplet-GMPNN 与多任务模型的性能。
为了独立评估模型改进的效果,该研究还进行了消融实验。下图 4a 显示了 vanilla 训练和分块训练在性能上的显著差异;图 4b 显示了累积消融的结果:逐渐删除单个改进部分的结果。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
学习器
关注
1
【AAAI2023】基于历史对比学习的时序知识图谱推理
专知会员服务
32+阅读 · 2022年11月23日
《多智能体任务规划》2022博士论文
专知会员服务
255+阅读 · 2022年11月20日
【MIT博士论文】通过奇异值分解、端到端基于模型的方法和奖励塑造的有效强化学习
专知会员服务
44+阅读 · 2022年9月22日
麻省理工420页博士论文《现代机器的可扩展和高效的图算法和分析技术》
专知会员服务
20+阅读 · 2022年8月5日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
UCL& UC Berkeley | 深度强化学习中的泛化研究综述
专知会员服务
59+阅读 · 2021年11月22日
【ICML2021】 One-shot 权重共享神经网络结构搜索算法
专知会员服务
16+阅读 · 2021年8月4日
【ICML2021】学习一个通用模板的少样本数据集泛化
专知会员服务
25+阅读 · 2021年5月23日
【ICLR2021】微分动态规划神经优化器
专知会员服务
15+阅读 · 2021年3月4日
【ICLR2020-CMU】学习使用主动神经SLAM进行探索,Active Neural SLAM
专知会员服务
37+阅读 · 2020年4月13日
DeepMind提出「算法蒸馏」:可探索的预训练强化学习Transformer
极市平台
2+阅读 · 2022年11月3日
再掀强化学习变革!DeepMind提出「算法蒸馏」:可探索的预训练强化学习Transformer
新智元
0+阅读 · 2022年11月2日
DeepMind提出通用神经算法学习器,排序、搜索、动态规划全部解决
PaperWeekly
0+阅读 · 2022年10月12日
【DeepMind】通用模型Gato(只一个模型神经网络,使用相同的权重, 达到SOTA水平)。
深度强化学习实验室
2+阅读 · 2022年5月15日
7 Papers & Radios | Meta AI首个多模态自监督算法;牛津、谷歌等撰文综述AutoRL
机器之心
0+阅读 · 2022年1月23日
DeepMind提出引导式元学习算法,让元学习器具备自学能力
AI前线
1+阅读 · 2021年12月6日
强化学习如何提升泛化性?UCL& UC Berkeley最新《深度强化学习泛化性》综述
专知
5+阅读 · 2021年11月22日
【前沿】让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
中国自动化学会
11+阅读 · 2019年6月18日
「元学习」解析:学习如何梯度下降与学习新的算法
AI研习社
12+阅读 · 2018年5月1日
Deepmind 新成果 ,让机器挑战更复杂阅读理解问题
AI掘金志
11+阅读 · 2018年1月3日
周围神经交叉移位治疗中枢性上肢瘫的运动中枢动态重塑模式研究
国家自然科学基金
0+阅读 · 2015年12月31日
基于云计算的动态分布式多目标粒子群算法研究
国家自然科学基金
1+阅读 · 2015年12月31日
基于神经网络的无约束0-1二次规划全局最优算法研究
国家自然科学基金
3+阅读 · 2015年12月31日
基于认知学习的智能机器人控制系统关键问题的研究
国家自然科学基金
7+阅读 · 2014年12月31日
创造性问题解决的动态神经加工模式研究
国家自然科学基金
0+阅读 · 2013年12月31日
(混合)整数规划问题的快速半拉格朗日蝙蝠算法及其应用研究
国家自然科学基金
1+阅读 · 2013年12月31日
网络排序问题的高性能优化算法研究
国家自然科学基金
0+阅读 · 2011年12月31日
非负二次函数锥规划研究
国家自然科学基金
0+阅读 · 2011年12月31日
结构化机器学习若干关键问题研究
国家自然科学基金
1+阅读 · 2009年12月31日
基于谓词规划树的规划方法的研究
国家自然科学基金
1+阅读 · 2009年12月31日
Continual Learning for Peer-to-Peer Federated Learning: A Study on Automated Brain Metastasis Identification
Arxiv
0+阅读 · 2022年11月24日
SEAT: Stable and Explainable Attention
Arxiv
0+阅读 · 2022年11月23日
Online Dynamic Reliability Evaluation of Wind Turbines based on Drone-assisted Monitoring
Arxiv
0+阅读 · 2022年11月23日
A Comprehensive Survey on Distributed Training of Graph Neural Networks
Arxiv
14+阅读 · 2022年11月11日
A Survey of Uncertainty in Deep Neural Networks
Arxiv
30+阅读 · 2021年7月7日
已删除
Arxiv
32+阅读 · 2020年3月23日
Unifying Graph Convolutional Neural Networks and Label Propagation
Arxiv
31+阅读 · 2020年2月17日
Learning Discrete Structures for Graph Neural Networks
Arxiv
17+阅读 · 2019年3月28日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Global Relation Embedding for Relation Extraction
Arxiv
10+阅读 · 2018年4月19日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
学习器
算法
排序
DeepMind
模型平均
搜索
相关VIP内容
【AAAI2023】基于历史对比学习的时序知识图谱推理
专知会员服务
32+阅读 · 2022年11月23日
《多智能体任务规划》2022博士论文
专知会员服务
255+阅读 · 2022年11月20日
【MIT博士论文】通过奇异值分解、端到端基于模型的方法和奖励塑造的有效强化学习
专知会员服务
44+阅读 · 2022年9月22日
麻省理工420页博士论文《现代机器的可扩展和高效的图算法和分析技术》
专知会员服务
20+阅读 · 2022年8月5日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
UCL& UC Berkeley | 深度强化学习中的泛化研究综述
专知会员服务
59+阅读 · 2021年11月22日
【ICML2021】 One-shot 权重共享神经网络结构搜索算法
专知会员服务
16+阅读 · 2021年8月4日
【ICML2021】学习一个通用模板的少样本数据集泛化
专知会员服务
25+阅读 · 2021年5月23日
【ICLR2021】微分动态规划神经优化器
专知会员服务
15+阅读 · 2021年3月4日
【ICLR2020-CMU】学习使用主动神经SLAM进行探索,Active Neural SLAM
专知会员服务
37+阅读 · 2020年4月13日
热门VIP内容
开通专知VIP会员 享更多权益服务
《军事高价值资产自主防御与护航的深度强化学习方法》最新148页
杀伤链视角下算法战制胜机理分析∗
机器战争:将自主系统纳入军事框架
《作战战略和决策规划的数学模型》
相关资讯
DeepMind提出「算法蒸馏」:可探索的预训练强化学习Transformer
极市平台
2+阅读 · 2022年11月3日
再掀强化学习变革!DeepMind提出「算法蒸馏」:可探索的预训练强化学习Transformer
新智元
0+阅读 · 2022年11月2日
DeepMind提出通用神经算法学习器,排序、搜索、动态规划全部解决
PaperWeekly
0+阅读 · 2022年10月12日
【DeepMind】通用模型Gato(只一个模型神经网络,使用相同的权重, 达到SOTA水平)。
深度强化学习实验室
2+阅读 · 2022年5月15日
7 Papers & Radios | Meta AI首个多模态自监督算法;牛津、谷歌等撰文综述AutoRL
机器之心
0+阅读 · 2022年1月23日
DeepMind提出引导式元学习算法,让元学习器具备自学能力
AI前线
1+阅读 · 2021年12月6日
强化学习如何提升泛化性?UCL& UC Berkeley最新《深度强化学习泛化性》综述
专知
5+阅读 · 2021年11月22日
【前沿】让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
中国自动化学会
11+阅读 · 2019年6月18日
「元学习」解析:学习如何梯度下降与学习新的算法
AI研习社
12+阅读 · 2018年5月1日
Deepmind 新成果 ,让机器挑战更复杂阅读理解问题
AI掘金志
11+阅读 · 2018年1月3日
相关基金
周围神经交叉移位治疗中枢性上肢瘫的运动中枢动态重塑模式研究
国家自然科学基金
0+阅读 · 2015年12月31日
基于云计算的动态分布式多目标粒子群算法研究
国家自然科学基金
1+阅读 · 2015年12月31日
基于神经网络的无约束0-1二次规划全局最优算法研究
国家自然科学基金
3+阅读 · 2015年12月31日
基于认知学习的智能机器人控制系统关键问题的研究
国家自然科学基金
7+阅读 · 2014年12月31日
创造性问题解决的动态神经加工模式研究
国家自然科学基金
0+阅读 · 2013年12月31日
(混合)整数规划问题的快速半拉格朗日蝙蝠算法及其应用研究
国家自然科学基金
1+阅读 · 2013年12月31日
网络排序问题的高性能优化算法研究
国家自然科学基金
0+阅读 · 2011年12月31日
非负二次函数锥规划研究
国家自然科学基金
0+阅读 · 2011年12月31日
结构化机器学习若干关键问题研究
国家自然科学基金
1+阅读 · 2009年12月31日
基于谓词规划树的规划方法的研究
国家自然科学基金
1+阅读 · 2009年12月31日
相关论文
Continual Learning for Peer-to-Peer Federated Learning: A Study on Automated Brain Metastasis Identification
Arxiv
0+阅读 · 2022年11月24日
SEAT: Stable and Explainable Attention
Arxiv
0+阅读 · 2022年11月23日
Online Dynamic Reliability Evaluation of Wind Turbines based on Drone-assisted Monitoring
Arxiv
0+阅读 · 2022年11月23日
A Comprehensive Survey on Distributed Training of Graph Neural Networks
Arxiv
14+阅读 · 2022年11月11日
A Survey of Uncertainty in Deep Neural Networks
Arxiv
30+阅读 · 2021年7月7日
已删除
Arxiv
32+阅读 · 2020年3月23日
Unifying Graph Convolutional Neural Networks and Label Propagation
Arxiv
31+阅读 · 2020年2月17日
Learning Discrete Structures for Graph Neural Networks
Arxiv
17+阅读 · 2019年3月28日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Global Relation Embedding for Relation Extraction
Arxiv
10+阅读 · 2018年4月19日
大家都在搜
palantir
壁画
武器目标分配
兵棋推演
知识图谱
笛卡尔
PRML
汽车智能化
大模型
EBSD晶体学织构基础及数据处理
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top