用Transformer大一统ML模型,特斯拉AI总监Karpathy发推感叹AI融合趋势

2021 年 12 月 9 日 专知

Andrej Karpathy:人工智能领域正在进行的整合令人难以置信。十年前,视觉、语音、自然语言、强化学习等,是完全独立的;一个人很难读懂跨领域的所有论文——各领域方法完全不同,甚至未必基于机器学习。到2010年,所有这些领域开始过渡到 1)机器学习,特别是2)神经网络。虽然架构多种多样,但至少论文读起来开始有点相似,都在利用大规模数据集,都在进行神经网络的优化。


最近两年,几乎所有领域的神经网络架构开始统一到Transformer,要么作为强大的基线,要么(往往)就是最先进水平。


输入可以是词语序列、图块序列、语音片段序列、强化学习的(状态、行动、奖励)序列,可以接受任意种类的Token——实在是一种极简又灵活的建模框架。即使在同一领域(如视觉),过去在分类、分割、检测、生成等不同任务也有不小的差异,如今也都转到了同一框架。例如,对检测来说,输入图块序列,输出边框序列。各种应用的差别,主要体现在:

1)数据,

2)将问题映射到向量序列中的输入/输出的定义,有时还包括 

3)位置编码器类型和注意力掩码中特定问题的结构化稀疏模式。


虽然在技术上,我重点聚焦视觉领域,但所有人工智能领域的论文、人和想法都突然变得非常相关。每个人都在用基本相同的模型工作,所以大多数改进和想法,可以在所有人工智能领域迅速"复制粘贴"。正如许多人已经注意到并指出的,大脑皮层对其各种输入模式也有一个高度统一的架构。也许自然界也碰巧找到了一种类似的强大架构,并以类似的方式进行着复制,只在细节稍微做出些变化。这种架构上的整合,会反过来聚合和集成软件、硬件、基础设施,并进一步加快整个人工智能的进展。总之,这是个令人兴奋的时代。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“人工智能” 就可以获取人工智能专知资料》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
「深度学习注意力机制 」最新TKDE2022研究综述
专知会员服务
102+阅读 · 2022年3月29日
【CVPR2022】EDTER:基于Transformer的边缘检测(CVPR2022)
专知会员服务
32+阅读 · 2022年3月18日
【ICLR2022】序列生成的目标侧数据增强
专知会员服务
22+阅读 · 2022年2月14日
《深度学习中神经注意力模型》综述论文
专知会员服务
112+阅读 · 2021年12月15日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
专知会员服务
63+阅读 · 2021年4月11日
剑桥大学2020《AI全景报告》出炉,177页ppt
专知会员服务
120+阅读 · 2020年10月4日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
【CVPR2022】EDTER:基于Transformer的边缘检测
专知
2+阅读 · 2022年3月18日
神经网络的基础数学,95页pdf
专知
26+阅读 · 2022年1月23日
【CVPR2021】基于Transformer的视频分割领域
专知
2+阅读 · 2021年4月16日
【UMASS博士论文】几何表示学习,162页pdf
专知
1+阅读 · 2021年4月11日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
3+阅读 · 2022年4月19日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
27+阅读 · 2017年12月6日
VIP会员
相关VIP内容
「深度学习注意力机制 」最新TKDE2022研究综述
专知会员服务
102+阅读 · 2022年3月29日
【CVPR2022】EDTER:基于Transformer的边缘检测(CVPR2022)
专知会员服务
32+阅读 · 2022年3月18日
【ICLR2022】序列生成的目标侧数据增强
专知会员服务
22+阅读 · 2022年2月14日
《深度学习中神经注意力模型》综述论文
专知会员服务
112+阅读 · 2021年12月15日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
专知会员服务
63+阅读 · 2021年4月11日
剑桥大学2020《AI全景报告》出炉,177页ppt
专知会员服务
120+阅读 · 2020年10月4日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
相关基金
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
相关论文
Top
微信扫码咨询专知VIP会员