报告主题:Universal Features-Information Extraction for Transfer Learning
报告摘要:深度神经网络已成功地在广泛的应用中使用。从概念上讲,我们知道数据和标签之间的统计相关性是已知的,并且条件分布的一些近似版本存储在DNN的权重中。通过尝试了解DNN的操作,我们的目标是对统计量在网络内部的表示方式进行数学解释,以便我们可以将存储在一个DNN中的学习知识与其他来源的知识(例如先验知识)集成在一起,结构知识,其他神经网络的学习成果,或者只是将其用于新的相关问题中。在本次演讲中,我们试图通过建立一种理论结构来解决该问题,该结构可以通过信息与特定推理问题的相关性来衡量信息的含义,并以此来解释神经网络在提取“通用特征”(定义为解决方案)时的行为。针对特定的优化问题。我们表明,这种学习过程与统计学和信息论中的许多著名概念紧密相关。基于此理论框架,我们展示了一些在转移学习中使用神经网络的灵活方法,特别是结合了一些常规的信号处理技术。
邀请嘉宾:郑立中(Lizhong Zheng)于1994和1997年在清华大学电子工程系获得学士和硕士学位,2002年在加州大学伯克利分校电气和计算机工程系获博士学位,并到麻省理工学院(MIT) 电气和计算机科学系任教。目前是该系全职教授,IEEE Fellow。主要从事信息论、无线通信和统计干扰理论研究。曾获得IEEE 信息理论学会论文奖、美国国家自然基金会CAREER奖和AFOSR 年轻研究学者奖。 近年来在信息论、信息几何、有损信息处理、网络信息论模型训练和社区发现等最新信息理论及其在通信和大数据等方面的应用有着开创性的研究。