扩散模型近年来在生成逼真但合成的连续媒体内容方面引起了广泛关注。本次演讲将介绍 Transformer 在图像生成的扩散模型中的应用,并进一步探讨其更广泛的前景。 我们首先简要介绍扩散模型的基础知识以及它们的训练方式,从而建立基本背景。接着,我们讲解曾是扩散模型事实标准的基于 UNet 的网络架构,这将帮助我们理解引入 Transformer 架构并推动其发展的动因。 随后,我们将深入探讨构成基础架构的核心模块,以及在不同条件设定下可以做架构消融实验的自由度。接着,我们将重点介绍当前社区在多个 SoTA 开源模型中用于各种应用场景的多种注意力机制变体及相关组件。

最后,我们将讨论一些围绕效率方面的前沿研究方向,为未来的发展提供启发。 **演讲者简介:**Sayak 目前在 Hugging Face 从事扩散模型相关工作。他的日常工作包括为 diffusers 库贡献代码、训练和调试扩散模型,以及探索应用层面的新想法。他的兴趣方向包括基于主体的生成、偏好对齐和扩散模型的评估。工作之余,他喜欢弹吉他、刷 ICML 教程以及追剧《金装律师》(Suits)。

成为VIP会员查看完整内容
1

相关内容

扩散模型是近年来快速发展并得到广泛关注的生成模型。它通过一系列的加噪和去噪过程,在复杂的图像分布和高斯分布之间建立联系,使得模型最终能将随机采样的高斯噪声逐步去噪得到一张图像。
物理引导的机器学习
专知会员服务
21+阅读 · 5月11日
专知会员服务
19+阅读 · 2021年9月19日
从HPO到NAS: 自动深度学习
专知会员服务
39+阅读 · 2020年6月15日
神经网络的基础数学,95页pdf
专知
28+阅读 · 2022年1月23日
论文浅尝 | ICLR2020 - 基于组合的多关系图卷积网络
开放知识图谱
21+阅读 · 2020年4月24日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
知识图谱嵌入(KGE):方法和应用的综述
专知
56+阅读 · 2019年8月25日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
471+阅读 · 2023年3月31日
Arxiv
77+阅读 · 2023年3月26日
Arxiv
170+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关资讯
神经网络的基础数学,95页pdf
专知
28+阅读 · 2022年1月23日
论文浅尝 | ICLR2020 - 基于组合的多关系图卷积网络
开放知识图谱
21+阅读 · 2020年4月24日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
知识图谱嵌入(KGE):方法和应用的综述
专知
56+阅读 · 2019年8月25日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
使用CNN生成图像先验实现场景的盲图像去模糊
统计学习与视觉计算组
10+阅读 · 2018年6月14日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员