成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
NeurIPS 2020线上分享 | 华为诺亚方舟:超越CNN的加法神经网络
2020 年 11 月 23 日
机器之心
具有大量可学习参数和乘法运算的卷积神经网络(CNN)在图像分类、目标检测、语义分割和低级图像任务中表现出了卓越的性能,但由此带来的功耗过大问题限制了 CNN 在手机和相机等便携式设备上的应用。
所以,近来的一些研究着力探索降低计算成本的高效方法。
目前出现了多种获得高计算能效深度神经网络的算法,如从准确度损失极少的预训练神经网络中删除不重要参数或滤波器的权重剪枝方法,以及通过模仿教师模型输出分布来直接学习学生模型的知识蒸馏方法。另一个获得高效神经网络的研究途径是减少权重和激活值的位宽以降低内存使用和功耗。这类方法有很多,也可以大幅度降低计算复杂度,但生成网络的性能依然低于 CNN 方法。
针对这些问题,Hanting Chen 等提出了不需要大量浮点数乘法运算的加法神经网络(Adder Neural Network, ANN),不仅实现了比低位宽二进制神经网络更好的性能,还对未来深度学习硬件加速器的设计产生深远影响。
在华为诺亚方舟实验室、悉尼大学这篇被 NeurIPS 2020 学术会议接收的论文《Kernel Based Progressive Distillation for Adder Neural Networks》中,研究者通过一种基于核的渐进式蒸馏方法构建了性能更好的加法神经网络。研究者表示,这项研究使得 ANN 性能超越了同结构的 CNN,从而在功耗更少的情况下实现更佳性能。这项研究还将有益于智能手机和物联网等的应用。
机器之心最新一期 NeurIPS 线上分享邀请到了论文一作、诺亚方舟实验室研究员许奕星,为大家详细解读此前沿研究。
分享主题:基于核的加法神经网络渐进式蒸馏方法
分享嘉宾:
许奕星,诺亚方舟实验室研究员,北京大学智能科学系硕士、浙江大学学士。师从北京大学许超教授和悉尼大学陶大程教授,曾在 MSRA 实习。研究兴趣主要包括计算机视觉、机器学习和深度学习,并在 NIPS、CVPR、ICML、AAAI、IJCAI 等学术会议发表论文数篇。目前主要研究方向为加法神经网络、神经网络模型小型化、神经网络自动搜索以及半监督学习。
分享概要:
深度卷积神经网络(CNN)在众多计算机视觉任务中取得成功。然而为了保证性能,CNN 包含大量的乘法操作。近期提出的加法神经网络(ANN)通过替换卷积操作为无需乘法的加法操作,极大的减少了网络的运行功耗和所需的芯片面积,然而 ANN 在准确率上和同结构的 CNN 相比仍有一定差距。本讲座介绍了一种基于核的渐进式蒸馏方法,提高 ANN 的分类性能。实验表明,在 CIFAR-10、CIFAR-100 和 ImageNet 等多个标准图片分类数据集上,ANN 能够取得超越同结构 CNN 的性能,为 ANN 进一步应用于实际奠定了基础。
直播时间:
北京时间 11 月 25 日 20:00-21:00
论文链接:https://arxiv.org/pdf/2009.13044.pdf
加入机动组,一起看直播
「机动组」是机器之心发起的人工智能技术社区,将持续提供技术公开课、论文分享、热门主题解读等线上线下活动,并在社群中提供每日精选论文与教程、智能技术研究周报,同时「机动组」也将不定期组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。添加机器之心小助手(syncedai5),备注「2020」,加入本次直播群。
PS:如果小助手无法添加,请将「微信 ID」发送邮件到 dujiahao@jiqizhixin.com,我们将与你联系,邀你入群。
2020 NeurIPS MeetUp
受新冠疫情影响, NeurIPS 2020 转为线上举办。虽然这可以为大家节省一笔包括注册、机票和住宿的开支,但不能线下参与这场一年一度的学术会议、与学术大咖近距离交流讨论还是有些遗憾。
机器之心获得 NeurIPS 官方授权,将于 12 月 6 日在北京举办 2020 NeurIPS MeetUp,设置
Keynote、 论文分享和 Poster 环节
,邀请顶级专家、论文作者与现场参会观众共同交流。
点击阅读原文,立即报名。
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
加法神经网络
关注
0
Transformer替代CNN?8篇论文概述最新进展!
专知会员服务
75+阅读 · 2021年1月19日
【NeurIPS 2020】深度学习的不确定性估计和鲁棒性
专知会员服务
49+阅读 · 2020年12月8日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
深度神经网络模型压缩综述
专知会员服务
114+阅读 · 2020年8月22日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
30+阅读 · 2020年4月6日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
今晚,华为诺亚方舟NeurIPS 2019论文分享:基于少量数据的神经网络模型压缩技术
机器之心
11+阅读 · 2019年11月21日
NeurIPS 2019 论文分享 | 华为诺亚方舟:基于少量数据的神经网络模型压缩技术
机器之心
3+阅读 · 2019年11月18日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
重磅开源! ICCV 2019,华为诺亚提出无需数据网络压缩技术
新智元
5+阅读 · 2019年9月7日
ICCV2019|已开源,华为诺亚方舟实验室提出无需数据网络压缩技术
极市平台
8+阅读 · 2019年9月6日
【学界】CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
GAN生成式对抗网络
8+阅读 · 2019年3月18日
AAAI 2019 论文解读:卷积神经网络继续进步
机器之心
35+阅读 · 2019年2月2日
【中科院自动化所AAAI Oral】从哈希到卷积神经网络:高精度 & 低功耗
新智元
4+阅读 · 2018年2月8日
纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
机器之心
11+阅读 · 2018年1月8日
WangchanBERTa: Pretraining transformer-based Thai Language Models
Arxiv
0+阅读 · 2021年1月24日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
UniLMv2: Pseudo-Masked Language Models for Unified Language Model Pre-Training
Arxiv
15+阅读 · 2020年2月28日
KG-BERT: BERT for Knowledge Graph Completion
Arxiv
15+阅读 · 2019年9月11日
Pre-Training with Whole Word Masking for Chinese BERT
Arxiv
11+阅读 · 2019年6月19日
Explanatory Graphs for CNNs
Arxiv
4+阅读 · 2018年12月18日
Rethinking ImageNet Pre-training
Arxiv
8+阅读 · 2018年11月21日
Quantization Mimic: Towards Very Tiny CNN for Object Detection
Arxiv
5+阅读 · 2018年9月13日
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
Arxiv
4+阅读 · 2018年7月30日
Weakly Supervised One-Shot Detection with Attention Siamese Networks
Arxiv
14+阅读 · 2018年1月12日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
加法神经网络
加法
卷积神经网络
神经网络
NeurIPS 2020
NeurIPS
相关VIP内容
Transformer替代CNN?8篇论文概述最新进展!
专知会员服务
75+阅读 · 2021年1月19日
【NeurIPS 2020】深度学习的不确定性估计和鲁棒性
专知会员服务
49+阅读 · 2020年12月8日
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
82+阅读 · 2020年11月19日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
深度神经网络模型压缩综述
专知会员服务
114+阅读 · 2020年8月22日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
【CVPR 2020 Oral-北大华为】只用加法的神经网络,重磅开源
专知会员服务
30+阅读 · 2020年4月6日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
38+阅读 · 2020年2月21日
热门VIP内容
开通专知VIP会员 享更多权益服务
《支持 ML/AI 的下一代智能自主网络系统:性能提升与管理》177页
《飞行训练指导:夜间熟悉》152页
数据:联合作战的新弹药
《混合现实飞行模拟器中的夜视镜仿真:无缝集成真实世界》最新54页
相关资讯
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
今晚,华为诺亚方舟NeurIPS 2019论文分享:基于少量数据的神经网络模型压缩技术
机器之心
11+阅读 · 2019年11月21日
NeurIPS 2019 论文分享 | 华为诺亚方舟:基于少量数据的神经网络模型压缩技术
机器之心
3+阅读 · 2019年11月18日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
重磅开源! ICCV 2019,华为诺亚提出无需数据网络压缩技术
新智元
5+阅读 · 2019年9月7日
ICCV2019|已开源,华为诺亚方舟实验室提出无需数据网络压缩技术
极市平台
8+阅读 · 2019年9月6日
【学界】CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
GAN生成式对抗网络
8+阅读 · 2019年3月18日
AAAI 2019 论文解读:卷积神经网络继续进步
机器之心
35+阅读 · 2019年2月2日
【中科院自动化所AAAI Oral】从哈希到卷积神经网络:高精度 & 低功耗
新智元
4+阅读 · 2018年2月8日
纵览轻量化卷积神经网络:SqueezeNet、MobileNet、ShuffleNet、Xception
机器之心
11+阅读 · 2018年1月8日
相关论文
WangchanBERTa: Pretraining transformer-based Thai Language Models
Arxiv
0+阅读 · 2021年1月24日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
UniLMv2: Pseudo-Masked Language Models for Unified Language Model Pre-Training
Arxiv
15+阅读 · 2020年2月28日
KG-BERT: BERT for Knowledge Graph Completion
Arxiv
15+阅读 · 2019年9月11日
Pre-Training with Whole Word Masking for Chinese BERT
Arxiv
11+阅读 · 2019年6月19日
Explanatory Graphs for CNNs
Arxiv
4+阅读 · 2018年12月18日
Rethinking ImageNet Pre-training
Arxiv
8+阅读 · 2018年11月21日
Quantization Mimic: Towards Very Tiny CNN for Object Detection
Arxiv
5+阅读 · 2018年9月13日
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design
Arxiv
4+阅读 · 2018年7月30日
Weakly Supervised One-Shot Detection with Attention Siamese Networks
Arxiv
14+阅读 · 2018年1月12日
大家都在搜
无人艇
汽车智能化
大型语言模型
自主系统
无人机蜂群
大模型
palantir
MoE
智能推荐
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top