报告主题:Universal Features-Information Extraction for Transfer Learning

报告摘要:深度神经网络已成功地在广泛的应用中使用。从概念上讲,我们知道数据和标签之间的统计相关性是已知的,并且条件分布的一些近似版本存储在DNN的权重中。通过尝试了解DNN的操作,我们的目标是对统计量在网络内部的表示方式进行数学解释,以便我们可以将存储在一个DNN中的学习知识与其他来源的知识(例如先验知识)集成在一起,结构知识,其他神经网络的学习成果,或者只是将其用于新的相关问题中。在本次演讲中,我们试图通过建立一种理论结构来解决该问题,该结构可以通过信息与特定推理问题的相关性来衡量信息的含义,并以此来解释神经网络在提取“通用特征”(定义为解决方案)时的行为。针对特定的优化问题。我们表明,这种学习过程与统计学和信息论中的许多著名概念紧密相关。基于此理论框架,我们展示了一些在转移学习中使用神经网络的灵活方法,特别是结合了一些常规的信号处理技术。

邀请嘉宾:郑立中(Lizhong Zheng)于1994和1997年在清华大学电子工程系获得学士和硕士学位,2002年在加州大学伯克利分校电气和计算机工程系获博士学位,并到麻省理工学院(MIT) 电气和计算机科学系任教。目前是该系全职教授,IEEE Fellow。主要从事信息论、无线通信和统计干扰理论研究。曾获得IEEE 信息理论学会论文奖、美国国家自然基金会CAREER奖和AFOSR 年轻研究学者奖。 近年来在信息论、信息几何、有损信息处理、网络信息论模型训练和社区发现等最新信息理论及其在通信和大数据等方面的应用有着开创性的研究。

成为VIP会员查看完整内容
22

相关内容

郑立中(Lizhong Zheng)于1994和1997年在清华大学电子工程系获得学士和硕士学位,2002年在加州大学伯克利分校电气和计算机工程系获博士学位,并到麻省理工学院(MIT) 电气和计算机科学系任教。目前是该系全职教授,IEEE Fellow。主要从事信息论、无线通信和统计干扰理论研究。曾获得IEEE 信息理论学会论文奖、美国国家自然基金会CAREER奖和AFOSR 年轻研究学者奖。 近年来在信息论、信息几何、有损信息处理、网络信息论模型训练和社区发现等最新信息理论及其在通信和大数据等方面的应用有着开创性的研究。
【UAI 2019 Tutorials】深度学习数学(Mathematics of Deep Learning)
元学习—Meta Learning的兴起
专知
44+阅读 · 2019年10月19日
实验室学生参加 IJCAI 2019会议并做报告
inpluslab
16+阅读 · 2019年8月25日
赛尔讲坛第4期 | UIUC季姮教授讲座成功举办
哈工大SCIR
11+阅读 · 2019年8月24日
VALSE Webinar 19-07期 迁移学习与领域适配
VALSE
5+阅读 · 2019年3月28日
论文浅尝 | Zero-Shot Transfer Learning for Event Extraction
开放知识图谱
26+阅读 · 2018年11月1日
Arxiv
35+阅读 · 2020年1月2日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
4+阅读 · 2019年9月5日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
5+阅读 · 2018年4月22日
Arxiv
6+阅读 · 2018年2月8日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
【UAI 2019 Tutorials】深度学习数学(Mathematics of Deep Learning)
相关论文
Arxiv
35+阅读 · 2020年1月2日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
4+阅读 · 2019年9月5日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
5+阅读 · 2018年4月22日
Arxiv
6+阅读 · 2018年2月8日
Arxiv
10+阅读 · 2017年7月4日
微信扫码咨询专知VIP会员