成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
0
线上分享 | 超越卷积、自注意力:强大的神经网络新算子「内卷」解读
2021 年 4 月 16 日
机器之心
在神经网络架构的快速发展中,卷积始终是深度神经网络的核心组件。从技术角度来看,卷积核从经典图像滤波方法中汲取灵感,具有两个显著的特性,即空间不变性和通道特异性。
从效果来看,空间不变性可以实现参数共享和平移等变性,通道特异性允许卷积核收集不同通道中编码的多样化信息。但应看到,卷积并不完美,也存在着一些固有的缺陷。
一方面,尽管空间不变性与空间紧凑性的结合在提高效率和平移等变性方面发挥作用,但导致卷积核失去了适应不同空间位置多样化视觉模式的能力。局部性(locality)也限制了卷积的感受野,难以一次性地捕获长距离空间交互关系。另一方面,即使是很多成功的深度神经网络,其卷积滤波器内部也存在着明显的通道间冗余,导致我们有可能减少卷积核在不同通道中的特异性而不明显影响其表达能力。
针对这些问题,来自港科大、字节跳动 AI Lab 和北大的研究者提出了 involution,在设计上与卷积的特性相反,表现出通道不变性和空间特异性。实验结果表明,神经网络新算子 involution 的参数量和计算量降低,但性能反而提升了。involution 还可以在多种模型的不同位置替代卷积,并且替代的部分越多,模型性价比越高。论文已被 CVPR 2021 会议接收。
在机器之心最新一期的CVPR 2021论文线上分享中,我们邀请到了论文一作、港科大计算机系二年级研究生李铎为大家介绍神经网络新算子 involution 的技术细节。
欢迎大家报名参与,如有疑问可在 QA 环节与分享嘉宾交流。
主题:超越卷积、自注意力的神经网络新算子 involution
嘉宾简介:
李铎,香港科技大学计算机系二年级研究生,本科毕业于清华大学自动化系,曾于 ICCV、CVPR、ECCV 等国际计算机视觉顶会上发表论文 10 篇,还曾在英特尔、英伟达、商汤和字节跳动等公司实习。他还荣获了 2020 年度 CCF-CV 学术新锐奖。
分享摘要:
我们重新思考了卷积核在空间和通道维度的固有特性,即空间不变性和通道特异性。通过反转以上的两个设计准则,我们提出了一种新颖的神经网络算子 involution。另外,我们将最近应用广泛的自注意力操作作为一种复杂的特例归入了 involution 的范畴。我们提出的 involution 算子可以替代普通卷积来搭建新一代的视觉神经网络,在不同的视觉任务中支持多种深度学习模型,包括 ImageNet 图像分类、COCO 目标检测和实例分割以及 Cityscapes 语义分割。一系列实验结果表明,基于 involution 的深度神经网络相较于卷积神经网络模型,在上述任务中显著减少计算代价的同时能够提高识别性能。
论文链接:https://arxiv.org/pdf/2103.06255.pdf
项目地址:https://github.com/d-li14/involution
时间:2021 年 4 月 20 日 19:00 - 20:00
本期直播间:
https://jmq.h5.xeknow.com/s/9ib3V
CVPR 2021论文分享视频专栏:
https://jmq.h5.xeknow.com/s/qAucp
直播交流群:
如群已超出
人数限制,请添加其他小助手:
syncedai2、syncedai3、syncedai4 或 syncedai5,备注「CVPR」即可加入。
点击
阅读原文
,收藏直播间。
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
卷积
关注
11
在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
【CVPR2021】端到端的全卷积目标检测器
专知会员服务
30+阅读 · 2021年4月5日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
28+阅读 · 2021年3月27日
【NeurIPS 2020】学习神经网络中的不变性
专知会员服务
29+阅读 · 2020年10月24日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
56+阅读 · 2020年4月29日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
31+阅读 · 2020年4月6日
用自注意力增强卷积:这是新老两代神经网络的对话(附实现)
机器之心
18+阅读 · 2019年4月26日
新卷积运算 | 倍频程卷积降低CNNs的空间冗余(文末提供源码)
计算机视觉战队
15+阅读 · 2019年4月25日
【学界】CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
GAN生成式对抗网络
8+阅读 · 2019年3月18日
ECCV2018|ShuffleNetV2:轻量级CNN网络中的桂冠
极市平台
7+阅读 · 2018年11月5日
直播 | 美国东北大学博士生分享基于残差密集网络的图像超分辨率
AI科技评论
4+阅读 · 2018年6月19日
Distributed optimal power flow
Arxiv
0+阅读 · 2021年6月18日
Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
Arxiv
8+阅读 · 2020年4月14日
Deep Universal Graph Embedding Neural Network
Arxiv
6+阅读 · 2019年9月25日
Squeeze-and-Excitation Networks
Arxiv
3+阅读 · 2018年10月25日
Distance-based Self-Attention Network for Natural Language Inference
Arxiv
10+阅读 · 2017年12月6日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
卷积
不变性
卷积核
自注意力
神经网络
通道
相关VIP内容
【CVPR2021】端到端的全卷积目标检测器
专知会员服务
30+阅读 · 2021年4月5日
“内卷“算子超越卷积、自注意力机制:CVPR2021强大的神经网络新算子involution
专知会员服务
28+阅读 · 2021年3月27日
【NeurIPS 2020】学习神经网络中的不变性
专知会员服务
29+阅读 · 2020年10月24日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
56+阅读 · 2020年4月29日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
31+阅读 · 2020年4月6日
热门VIP内容
开通专知VIP会员 享更多权益服务
【博士论文】面向真实世界音视联合语音识别的可扩展框架
《通过仿真与开源数据提升战略决策:机遇与局限》最新报告
【AAAI2026】善始则事半功倍:基于前缀优化的大语言模型推理强化学习
评估大语言模型在科学发现中的作用
相关资讯
用自注意力增强卷积:这是新老两代神经网络的对话(附实现)
机器之心
18+阅读 · 2019年4月26日
新卷积运算 | 倍频程卷积降低CNNs的空间冗余(文末提供源码)
计算机视觉战队
15+阅读 · 2019年4月25日
【学界】CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
GAN生成式对抗网络
8+阅读 · 2019年3月18日
ECCV2018|ShuffleNetV2:轻量级CNN网络中的桂冠
极市平台
7+阅读 · 2018年11月5日
直播 | 美国东北大学博士生分享基于残差密集网络的图像超分辨率
AI科技评论
4+阅读 · 2018年6月19日
相关论文
Distributed optimal power flow
Arxiv
0+阅读 · 2021年6月18日
Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
Arxiv
8+阅读 · 2020年4月14日
Deep Universal Graph Embedding Neural Network
Arxiv
6+阅读 · 2019年9月25日
Squeeze-and-Excitation Networks
Arxiv
3+阅读 · 2018年10月25日
Distance-based Self-Attention Network for Natural Language Inference
Arxiv
10+阅读 · 2017年12月6日
大家都在搜
Palantir
朱克爱德华兹家族
大型语言模型
多域作战
未来战争
突防
机场
反恐
蓝牙安全攻防
模型压缩 | 知识蒸馏经典解读
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top