传统的机器学习方法通常依赖于最大似然估计(MLE),因为它易于实现并且与KL散度最小化等价。然而,仅通过最大化似然训练的模型通常缺乏在实际部署中所期望的某些特性,例如不确定性的量化、对分布外输入的鲁棒性或遵守隐私约束。随着机器学习模型的广泛部署,这些重要特性比以往任何时候都更加必要。不幸的是,能够提供这些特性的方法往往难以在当今的大型模型和数据集上实现。 在本文中,我们提出了几项贡献,以提高超越最大似然方法的可行性。首先,我们在多个领域改进了贝叶斯机器学习。这使我们能够恢复感兴趣参数的完整后验分布,而不仅仅是最大似然方法提供的点估计。其次,我们在序列任务中实现了新的训练方案:强化学习和序列建模。在强化学习的情况下,这使我们能够开发不泄露私人信息的奖励最大化策略。在序列建模的情况下,我们实现了新的散度方法,从而改进了文本生成。 我们的贡献使我们能够将分布感知的方法扩展到多个领域,并实现最先进的结果,包括恢复因果图的后验分布、在模拟机器人任务中开发隐私感知算法,以及使用具有数十亿参数的语言模型生成类人文本。

成为VIP会员查看完整内容
26

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【UFPE大学博士论文】基于熵损失的鲁棒深度学习
专知会员服务
41+阅读 · 2022年11月11日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【AI与医学】多模态机器学习精准医疗健康
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
牛逼哄哄的图卷积神经网络将带来哪些机遇?
计算机视觉life
49+阅读 · 2019年3月25日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员