每周一起读 × 线下 | 作者带你读 ICML 2019 最新录用论文

2019 年 5 月 28 日 PaperWeekly


大家还记得我们的“每周一起读”活动吗?作为曾经的 PaperWeekly 线上阅读小组,从 17 年 4 月开始,我们组织了以聊天机器人、增强学习、GAN、推荐系统等方向为议题的论文共读活动,邀请拥有相同学术研究背景的同学展开有趣、有料的分享和对谈。


往期回顾:


今年,我们将尝试把论文共读小组搬到线下,继续结合自然语言处理计算机视觉机器学习等领域的顶会论文和前沿成果来指定每期论文,并且邀请论文作者来到现场,和大家展开更有价值的延伸讨论。


我们希望能为 PaperWeekly 的各位读者带来一种全新的论文阅读体验、一个认识同好、找到组织的契机、一次与国际顶会论文作者当面交流的机会。 


5 月 30 日(周四)晚 8 点,在清华大学 FIT 楼,“每周一起读”将邀请开源项目 ZhuSuan 主要作者、清华大学计算机系博士生石佳欣,和大家分享其发表于机器学习国际会议 ICML 2019 的最新文章。




01
# 本 期 嘉 宾



  石佳欣  

清华大学计算机系博士生


石佳欣,清华大学计算机系博士生,从事机器学习方向研究,导师为朱军。他于 2015 年在清华大学计算机系获得工学学士学位。他的研究兴趣主要在概率方法,近似贝叶斯推理。他作为主要作者创建了开源项目 ZhuSuan,并且引领该项目的开发维护至今。他在机器学习国际会议 ICML, NeurIPS, ICLR 等上发表了数篇论文。他是 2018 年微软学者获得者。



02
# 本 期 论 文



  ICML 2019  



Abstract: Inference in Gaussian process (GP) models is computationally challenging for large data, and often difficult to approximate with a small number of inducing points. We explore an alternative approximation that employs stochastic inference networks for a flexible inference. Unfortunately, for such networks, minibatch training is difficult to be able to learn meaningful correlations over function outputs for a large dataset. We propose an algorithm that enables such training by tracking a stochastic, functional mirror-descent algorithm. At each iteration, this only requires considering a finite number of input locations, resulting in a scalable and easy-to-implement algorithm. Empirical results show comparable and, sometimes, superior performance to existing sparse variational GP methods.



03
# 活 动 信 息



时间:5 月 30 日(周四) 20:00–21:00


地点:清华大学 FIT 楼 1-312

北京市海淀区双清路30号清华大学



04
# 如 何 报 名



长按识别二维码,即刻报名👇



报名截止日期:5 月 29 日(周三)20:00

* 场地人数有限,报名成功的读者将在 5 月 29 日(周三)收到包含电子门票二维码的短信通知,请留意查收。


注意事项:

* 如您无法按时到场参与活动,请于活动开始前 24 小时在 PaperWeekly 微信公众号后台留言告知,留言格式为放弃报名 + 报名电话;无故缺席者,将不再享有后续活动的报名资格。



05
# 直 播 通 道



 1 / 加入组织 


扫码关注 PaperWeekly👇



 2 / 回复暗号 
在后台回复 “每周一起读 即可获取直播链接




#现 场 福 利#

 每周一起读 VOL.01 



本次论文共读活动,我们携手图灵教育为现场读者准备了多重赠书福利。所有参与现场 Q&A 环节的读者,均有机会获得以下优质图书和 PaperWeekly 独家定制的周边小礼物


[日]涌井良幸、涌井贞美/著 杨瑞龙/译


一本书掌握深度学习的数学基础知识!结合 235 幅插图和大量示例基于 Excel 实践,直击神经网络根本原理。


[美] 弗朗索瓦•肖莱/著 张亮/译


本书由 Keras 之父、现任 Google 人工智能研究员的 François Chollet 执笔,详尽展示了用 Python、Keras、TensorFlow 进行深度学习的探索实践,涉及计算机视觉、自然语言处理、生成式模型等应用。


[美] 杰伊•温格罗/著 袁志鹏/译


本书是数据结构与算法的入门指南,不局限于某种特定语言,略过复杂的数学公式,用通俗易懂的方式针对编程初学者介绍数据结构与算法的基本概念,培养读者编程逻辑。




🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


▽ 点击 | 阅读原文 | 立刻报名

登录查看更多
3

相关内容

ICML 是 International Conference on Machine Learning的缩写,即国际机器学习大会。ICML如今已发展为由国际机器学习学会(IMLS)主办的年度机器学习国际顶级会议。
专知会员服务
109+阅读 · 2020年3月12日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
专知会员服务
87+阅读 · 2020年1月20日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
专知会员服务
53+阅读 · 2019年12月22日
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
实验室2篇论文被IEEE IoTJ录用
inpluslab
9+阅读 · 2019年6月28日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
独家 | Michael I. Jordan最新清华授课笔记!
THU数据派
4+阅读 · 2017年9月17日
MetaMind文本摘要最新研究成果 | 每周一起读
PaperWeekly
3+阅读 · 2017年6月22日
Arxiv
14+阅读 · 2019年9月11日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
5+阅读 · 2018年4月22日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
专知会员服务
109+阅读 · 2020年3月12日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
专知会员服务
87+阅读 · 2020年1月20日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
61+阅读 · 2020年1月18日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
98+阅读 · 2020年1月12日
专知会员服务
53+阅读 · 2019年12月22日
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
相关资讯
实验室2篇论文被IEEE IoTJ录用
inpluslab
9+阅读 · 2019年6月28日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
独家 | Michael I. Jordan最新清华授课笔记!
THU数据派
4+阅读 · 2017年9月17日
MetaMind文本摘要最新研究成果 | 每周一起读
PaperWeekly
3+阅读 · 2017年6月22日
相关论文
Top
微信扫码咨询专知VIP会员