直播 | ICLR论文解读:如何利用变分自编码模型框架求解深度主题模型

2018 年 5 月 5 日 AI科技评论

分享背景


在如今大数据背景下,人们轻而易举的可以获得海量的文本数据,如何有效的分析这些文本数据,同时提取有效的特征用于后续的文本分类,文本检索以及推荐系统等应用中,成为一个重要的研究课题。虽然一些基于概率生成网络的主题模型被提出,比如 LDA ,深度 LDA 等,但是它们在测试阶段仍然需要耗费大量的时间去推理参数的后验,使得这些模型在实际应用的时效性上大打折扣。因此,本次公开课,张昊博士将结合他们团队 ICLR 2018 文章,WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling,分享他在解决这个问题过程中的建模,算法实现以及实践经验。


分享题目


如何利用变分自编码模型框架求解深度主题模型


分享提纲


1. 大数据时代下的文本分析在很多系统中起到非常重要的作用。比如文本分类,文本检索以及推荐系统等。

2. 介绍基于概率生成模型的文本建模方法,并分析现有模型与算法的优缺点。

3. 深度 LDA(DLDA)模型是最近被提出的一种层次化主题模型,一些简单的推理算法,比如 Gibbs 采样,SG-MCMC 算法已经可以较好的去求解模型。

4. 结合我们团队在 ICLR2018 发表的文章,WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling,从原理与应用背景两个层面,讨论如何利用变分自编码模型框架更加有效的求解深度主题模型。

WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling

https://openreview.net/forum?id=S1cZsf-RW

分享嘉宾


张昊西安电子科技大学在读博士,师从电子工程学院陈渤教授。本科毕业于西安电子科技大学电子与信息工程专业。主要研究方向为基于概率统计模型的图像识别,文本分析与主题模型,以及动态时序数据分析等一系列问题的理论研究与应用。

分享时间


北京时间 5 月 7 日(周一)晚上 8:00


参与方式


扫描海报二维码关注微信公众号,点击 AI 进阶——公开课报名


对了,我们招人了,了解一下?

BAT资深算法工程师独家研发课程

最贴近生活与工作的好玩实操项目

班级管理助学搭配专业的助教答疑

学以致用拿offer,学完即推荐就业


┏(^0^)┛欢迎分享,明天见!

登录查看更多
7

相关内容

主题模型,顾名思义,就是对文字中隐含主题的一种建模方法。“苹果”这个词的背后既包含是苹果公司这样一个主题,也包括了水果的主题。   在这里,我们先定义一下主题究竟是什么。主题就是一个概念、一个方面。它表现为一系列相关的词语。比如一个文章如果涉及到“百度”这个主题,那么“中文搜索”、“李彦宏”等词语就会以较高的频率出现,而如果涉及到“IBM”这个主题,那么“笔记本”等就会出现的很频繁。如果用数学来描述一下的话,主题就是词汇表上词语的条件概率分布 。与主题关系越密切的词语,它的条件概率越大,反之则越小。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
KDD 2019论文解读:异构信息网络上的对抗生成学习
云栖社区
22+阅读 · 2019年8月21日
DeepMind论文:深度压缩感知,新框架提升GAN性能
极市平台
4+阅读 · 2019年5月23日
明早10点大讲堂 | 训练深度脉冲神经网络
AI研习社
11+阅读 · 2019年1月24日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
4+阅读 · 2018年4月26日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关论文
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
4+阅读 · 2018年4月26日
Arxiv
6+阅读 · 2018年4月21日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
5+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员