成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴
2022 年 3 月 22 日
机器之心
你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗?
最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等 Transformer 相比,性能也更好或相当。
论文地址:
https://arxiv.org/abs/2203.06717
基于超大卷积核,一些挑战传统认知的结论逐渐浮现,例如:深度小kernel模型的有效感受野其实不大,较浅的大kernel模型有效感受野非常大且更像人类(模型的预测主要根据物体的形状而非局部的纹理);Transformers 性能强悍可能不是因为Attention机制,而是因为大感受野……
在
3月24日19:00-20:00
的论文分享中,机器之心邀请到了 RepLKNet 论文一作、清华大学博士生丁霄汉为我们带来更深入的解读。
分享主题:
RepLKNet:超大卷积核,大到31x31,卷积越大,性能越强
分享嘉宾:
丁霄汉,清华大学博士生,旷视科技 Base Model 组实习生,研究方向为通用模型架构设计。在 CVPR 等会议上发表过一系列论文,提出了结构重参数化方法论及其若干应用,获得 GitHub 约 4000 Star。
分享摘要:
RepLKNet 挑战了诸多行业内的传统认知,发现大到 31x31 的超大卷积核既涨点又高效,越大越涨点。归纳了在现代模型中应用大卷积的五条准则,如用小卷积核进行重参数化等。在此之上提出了一种新的架构 RepLKNet,在大模型和下游任务上取得了亮眼的结果,比 Swin 更好或相当,远超传统小 kernel 的 CNN。
分享时间:
北京时间3月24日19:00-20:00
直播间:
关注机动组视频号,北京时间3月24日开播。
交流群:
本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。
如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「卷积」即可加入。
机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。
机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者
加入。
点击阅读原文,访问机动组官网,观看往期回顾;
关注机动组服务号,获取每周直播预告。
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
RepLKNet
关注
0
Swin Transformer重磅升级!Swin V2:向更大容量、更高分辨率的更大模型迈进
专知会员服务
26+阅读 · 2021年11月20日
【NeurIPS2021】去掉softmax后Transformer会更好吗?复旦&华为诺亚提出SOFT:轻松搞定线性近似
专知会员服务
19+阅读 · 2021年10月26日
【NeurIPS2021】ResT:一个有效的视觉识别转换器
专知会员服务
22+阅读 · 2021年10月25日
ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
27+阅读 · 2021年3月27日
替换Transformer!谷歌提出 Performer 模型,全面提升注意力机制!
专知会员服务
41+阅读 · 2020年10月29日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
49+阅读 · 2020年8月8日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
极市直播|CVPR 2022-唐业辉:量子启发的新型视觉主干模型WaveMLP
极市平台
1+阅读 · 2022年3月22日
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心
0+阅读 · 2022年3月17日
CVPR 2022 | 卷积核大到31x31!涨点又高效!清华&旷视提出RepLKNet:视觉主干新网络
CVer
0+阅读 · 2022年3月15日
凭什么 31x31 大小卷积核的耗时可以和 9x9 卷积差不多?
极市平台
0+阅读 · 2022年3月14日
CVPR 2022 | 超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
1+阅读 · 2022年3月5日
Transformer已成新霸主?FAIR等重新设计纯卷积ConvNet,性能反超
机器之心
1+阅读 · 2022年1月12日
CNN卷土重来!超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
0+阅读 · 2022年1月12日
“文艺复兴” ConvNet卷土重来,压过Transformer!FAIR重新设计纯卷积新架构
极市平台
0+阅读 · 2022年1月11日
线上分享 | 超越卷积、自注意力:强大的神经网络新算子「内卷」解读
机器之心
0+阅读 · 2021年4月16日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
面向人类工作记忆改善的脑电复杂网络信息反馈非线性计算模型研究
国家自然科学基金
0+阅读 · 2015年12月31日
各向同性相手性向列相液晶器件的制备与电光性能研究
国家自然科学基金
0+阅读 · 2014年12月31日
图像复原问题尺度自适应性关键技术研究
国家自然科学基金
1+阅读 · 2013年12月31日
基于图论的超大规模集成电路布线研究
国家自然科学基金
2+阅读 · 2013年12月31日
数据中心网络中的TCP性能优化技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于位置敏感哈希的图像语义检索技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于柏拉图立体多级裂变模型的三维片上网络拓扑结构的研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于语义的图像合成
国家自然科学基金
0+阅读 · 2011年12月31日
可带负权的图的p-中心和p-中位问题
国家自然科学基金
0+阅读 · 2009年12月31日
遥感影像快速反卷积复原处理问题研究
国家自然科学基金
0+阅读 · 2008年12月31日
Detecting Unintended Memorization in Language-Model-Fused ASR
Arxiv
0+阅读 · 2022年4月20日
THORN: Temporal Human-Object Relation Network for Action Recognition
Arxiv
0+阅读 · 2022年4月20日
MANIQA: Multi-dimension Attention Network for No-Reference Image Quality Assessment
Arxiv
0+阅读 · 2022年4月19日
VDTR: Video Deblurring with Transformer
Arxiv
0+阅读 · 2022年4月17日
MMV-Based Sequential AoA and AoD Estimation for Millimeter Wave MIMO Channels
Arxiv
0+阅读 · 2022年4月16日
MusicNet: Compact Convolutional Neural Network for Real-time Background Music Detection
Arxiv
0+阅读 · 2022年4月15日
A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
Arxiv
12+阅读 · 2021年8月30日
Transformer Tracking
Arxiv
17+阅读 · 2021年3月29日
Hyper-SAGNN: a self-attention based graph neural network for hypergraphs
Arxiv
17+阅读 · 2019年11月6日
DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding
Arxiv
16+阅读 · 2017年11月20日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
RepLKNet
卷积核
卷积
Transformer
核化
下游任务
相关VIP内容
Swin Transformer重磅升级!Swin V2:向更大容量、更高分辨率的更大模型迈进
专知会员服务
26+阅读 · 2021年11月20日
【NeurIPS2021】去掉softmax后Transformer会更好吗?复旦&华为诺亚提出SOFT:轻松搞定线性近似
专知会员服务
19+阅读 · 2021年10月26日
【NeurIPS2021】ResT:一个有效的视觉识别转换器
专知会员服务
22+阅读 · 2021年10月25日
ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
2021机器学习研究风向是啥?MLP→CNN→Transformer→MLP!
专知会员服务
65+阅读 · 2021年5月23日
【CVPR2021】GAN人脸预训练模型
专知会员服务
23+阅读 · 2021年4月10日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
27+阅读 · 2021年3月27日
替换Transformer!谷歌提出 Performer 模型,全面提升注意力机制!
专知会员服务
41+阅读 · 2020年10月29日
系列教程GNN-algorithms之六:《多核卷积拓扑图—TAGCN》
专知会员服务
49+阅读 · 2020年8月8日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
热门VIP内容
开通专知VIP会员 享更多权益服务
《支持 ML/AI 的下一代智能自主网络系统:性能提升与管理》177页
《飞行训练指导:夜间熟悉》152页
数据:联合作战的新弹药
《混合现实飞行模拟器中的夜视镜仿真:无缝集成真实世界》最新54页
相关资讯
极市直播|CVPR 2022-唐业辉:量子启发的新型视觉主干模型WaveMLP
极市平台
1+阅读 · 2022年3月22日
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心
0+阅读 · 2022年3月17日
CVPR 2022 | 卷积核大到31x31!涨点又高效!清华&旷视提出RepLKNet:视觉主干新网络
CVer
0+阅读 · 2022年3月15日
凭什么 31x31 大小卷积核的耗时可以和 9x9 卷积差不多?
极市平台
0+阅读 · 2022年3月14日
CVPR 2022 | 超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
1+阅读 · 2022年3月5日
Transformer已成新霸主?FAIR等重新设计纯卷积ConvNet,性能反超
机器之心
1+阅读 · 2022年1月12日
CNN卷土重来!超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
CVer
0+阅读 · 2022年1月12日
“文艺复兴” ConvNet卷土重来,压过Transformer!FAIR重新设计纯卷积新架构
极市平台
0+阅读 · 2022年1月11日
线上分享 | 超越卷积、自注意力:强大的神经网络新算子「内卷」解读
机器之心
0+阅读 · 2021年4月16日
用Transformer完全替代CNN
CVer
20+阅读 · 2020年10月23日
相关基金
面向人类工作记忆改善的脑电复杂网络信息反馈非线性计算模型研究
国家自然科学基金
0+阅读 · 2015年12月31日
各向同性相手性向列相液晶器件的制备与电光性能研究
国家自然科学基金
0+阅读 · 2014年12月31日
图像复原问题尺度自适应性关键技术研究
国家自然科学基金
1+阅读 · 2013年12月31日
基于图论的超大规模集成电路布线研究
国家自然科学基金
2+阅读 · 2013年12月31日
数据中心网络中的TCP性能优化技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于位置敏感哈希的图像语义检索技术研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于柏拉图立体多级裂变模型的三维片上网络拓扑结构的研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于语义的图像合成
国家自然科学基金
0+阅读 · 2011年12月31日
可带负权的图的p-中心和p-中位问题
国家自然科学基金
0+阅读 · 2009年12月31日
遥感影像快速反卷积复原处理问题研究
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Detecting Unintended Memorization in Language-Model-Fused ASR
Arxiv
0+阅读 · 2022年4月20日
THORN: Temporal Human-Object Relation Network for Action Recognition
Arxiv
0+阅读 · 2022年4月20日
MANIQA: Multi-dimension Attention Network for No-Reference Image Quality Assessment
Arxiv
0+阅读 · 2022年4月19日
VDTR: Video Deblurring with Transformer
Arxiv
0+阅读 · 2022年4月17日
MMV-Based Sequential AoA and AoD Estimation for Millimeter Wave MIMO Channels
Arxiv
0+阅读 · 2022年4月16日
MusicNet: Compact Convolutional Neural Network for Real-time Background Music Detection
Arxiv
0+阅读 · 2022年4月15日
A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP
Arxiv
12+阅读 · 2021年8月30日
Transformer Tracking
Arxiv
17+阅读 · 2021年3月29日
Hyper-SAGNN: a self-attention based graph neural network for hypergraphs
Arxiv
17+阅读 · 2019年11月6日
DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding
Arxiv
16+阅读 · 2017年11月20日
大家都在搜
洛克菲勒
PRML
大型语言模型
ETHZ博士论文
时间序列
大模型
MoE
palantir
笛卡尔
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top