神经网络在复杂的无监督任务中表现出色,包括使用扩散模型进行高质量样本生成和通过自监督学习(SSL)模型进行语义特征提取。扩散模型和自监督学习(SSL)在各自的目标上表现出色:生成高质量样本和学习表示。大量的研究工作已致力于提升扩散生成质量并深入理解自监督学习。此外,研究者们也在探索扩散与自监督学习模型之间的协同效应。然而,这些模型的复杂性带来了对其进行解读、识别瓶颈并提出设计方案以实现持续改进的挑战。在我们的研究中,我们对扩散模型和自监督学习模型进行了深入分析,识别了现有的瓶颈。这一分析促使我们开发出一致且高效的设计,以提升扩散生成性能并改善自监督学习模型所学特征的质量。此外,我们通过利用自监督学习来引导扩散模型进行零-shot采样,研究了扩散和自监督学习模型之间的互利关系。在扩散模型的研究中,我们全面调查了分类器引导采样过程和扩散UNet架构。对于分类器引导采样过程,我们提出了关键设计方案,包括分类器平滑性和调整的引导方向,以促进高质量的采样。因此,我们将现成的ResNet分类器集成到扩散采样中,使ImageNet数据集上的FID指标从5.91显著提高到2.19。关于扩散UNet架构,我们在现有的跳跃连接设计中识别出瓶颈效应,过多的噪声被引入采样过程。我们引入了一种简单且无训练的方法,称为跳跃调优(Skip-Tuning),以解决这一问题。该方法有效地防止了噪声污染生成样本,较基准模型在FID上实现了近乎100%的显著提升。在我们的自监督学习研究中,我们对自监督学习中的投影头设计提供了架构见解,并提出了一种通用设计——表示评估设计(RED)。该设计持续提升了各种自监督学习模型的下游性能,如SimCLR、MoCo-V2和SimSiam。此外,我们将自监督学习方法应用于生物学领域,开发了CellContrast,这是一种自监督学习方法,能够有效学习单细胞基因数据的空间信息。CellContrast在下游任务中显著超越了相关的监督学习方法。凭借我们深入的见解,我们进一步探讨了自监督学习与扩散模型之间的互利关系。具体来说,我们利用文本-图像对齐的自监督学习模型CLIP来引导扩散模型进行零-shot生成,而无需额外的训练。与之前的方法相比,我们的方法在采样效率上表现得更加优越。https://lbezone.hkust.edu.hk/bib/991013340348903412

成为VIP会员查看完整内容
12

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
【MIT博士论文】合成数据的视觉表示学习
专知会员服务
23+阅读 · 2024年8月25日
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
35+阅读 · 2023年12月20日
专知会员服务
66+阅读 · 2021年7月25日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【AI与医学】多模态机器学习精准医疗健康
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【优青论文】深度神经网络压缩与加速综述
计算机研究与发展
14+阅读 · 2018年9月20日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月4日
Arxiv
162+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
424+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
【MIT博士论文】合成数据的视觉表示学习
专知会员服务
23+阅读 · 2024年8月25日
【伯克利博士论文】神经网络中的结构与表征
专知会员服务
47+阅读 · 2024年5月12日
【NTU博士论文】语言模型自适应迁移学习
专知会员服务
35+阅读 · 2023年12月20日
专知会员服务
66+阅读 · 2021年7月25日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员