线上 | 景驰科技软件工程师陈国斌:基于知识蒸馏的模型压缩与加速

2018 年 1 月 16 日 机器学习研究会

北京时间1月18日(周四)中午1点,在将门技术社群,我们很开心邀请到将门投资企业景驰科技软件工程师——陈国斌,他将为大家带来基于知识蒸馏的模型压缩与加速的主题分享。


知识蒸馏被广泛的应用在模型压缩中,是一种很有效的提高快速模型精度的方法。本次分享我们将以目标检测为例,介绍知识蒸馏的要点并分析其背后原理。



活动信息

题:基于知识蒸馏的模型压缩与加速

时间:1月18日(周四)13:00

地点:将门创投斗鱼直播间



分享提纲

得益于其极高的精度和扩展能力,深度模型在各领域(尤其是图像)都取得了前所未有的成功。然而精度高的模型往往结构复杂且计算量大,使得其部署困难;速度快的模型又精度不够。研究人员提出了很多压缩模型的方法,目的是减小模型体积以及加快运行速度。知识蒸馏被广泛的应用在模型压缩中,是一种很有效的提高快速模型精度的方法。本次分享我们将以目标检测为例,介绍知识蒸馏的要点并分析其背后原理。


具体包括以下内容:

  • 模型压缩的原理以及主要方法。

  • 知识蒸馏的由来、原理。

  • 知识蒸馏在目标检测中的应用(NIPS 2017论文)

  • 总结分析


嘉宾介绍

陈国斌

景驰科技软件工程师


2011年毕业于中国科技大学电子工程与信息科学系,毕业后于中国科学院电子所任助理研究员。2013年春起,在密苏里大学计算机视觉读博。读博期间曾在位于硅谷的NEC Lab American实习。于2017年5月加入景驰。研究方向包括图像分类、目标检测、行人重识别以及深度神经网络压缩与加速。



转自:将门创投


完整内容请点击“阅读原文”

登录查看更多
11

相关内容

专知会员服务
80+阅读 · 2020年6月20日
最新《知识蒸馏》2020综述论文,20页pdf,悉尼大学
专知会员服务
157+阅读 · 2020年6月14日
专知会员服务
73+阅读 · 2020年5月21日
基于深度学习的行人重识别研究进展,自动化学报
专知会员服务
38+阅读 · 2019年12月5日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
大讲堂 | 基于对抗学习和知识蒸馏的多模型集成算法
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
Knowledge Flow: Improve Upon Your Teachers
Arxiv
5+阅读 · 2019年4月11日
HAQ: Hardware-Aware Automated Quantization
Arxiv
6+阅读 · 2018年11月21日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
7+阅读 · 2018年1月31日
VIP会员
相关资讯
基于知识蒸馏的BERT模型压缩
大数据文摘
18+阅读 · 2019年10月14日
大讲堂 | 基于对抗学习和知识蒸馏的多模型集成算法
AI综述专栏 | 深度神经网络加速与压缩
人工智能前沿讲习班
31+阅读 · 2018年10月31日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
Top
微信扫码咨询专知VIP会员