NeurIPS 2022开会了!大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程,附56页ppt

2022 年 11 月 30 日 专知

NeurIPS 2022开会了!作为当前全球最负盛名的 AI 学术会议之一,NeurIPS 是每年学界的重要事件,全称是 Neural Information Processing Systems,神经信息处理系统大会,通常在每年 12 月由 NeurIPS 基金会主办。大会讨论的内容包含深度学习、计算机视觉、大规模机器学习、学习理论、优化、稀疏理论等众多细分领域。


今年 NeurIPS 已是第 36 届,将于 11 月 28 日至 12 月 9 日举行,为期两周。第一周将在美国新奥尔良 Ernest N. Morial 会议中心举行现场会议,第二周改为线上会议。


来自IBM研究中心等学者讲述关于大模型的鲁棒性,非常值得关注!


基础模型采用深度学习的方法,在大规模无标签数据上进行预训练,并通过特定任务的监督进行微调,正成为机器学习的主流技术。虽然基础模型在学习一般表示和跨领域和数据模式的少次/零次泛化方面有很多希望,但同时由于使用了过多的数据量和复杂的神经网络架构,它们在鲁棒性和隐私性方面提出了前所未有的挑战和相当大的风险。本教程旨在提供一个类似coursera的在线教程,包含全面的讲座,一个实践和交互式的Jupyter/Colab实时编码演示,以及一个关于基础模型中可信性的不同方面的小组讨论。
https://sites.google.com/view/neurips2022-frfm-turotial

目录内容:

  1. Basics in foundation models and robustness

  2. Deep dive on foundation models for computer vision

  3. Deep dive on foundation models for code

  4. Hands-on code walkthrough

  5. Concluding Remarks

  6. Q&A

  7. Panel discussion


讲者:

现实世界的机器学习系统需要对分布变化鲁棒——它们应当在与训练分布不同的测试分布上工作良好。诸如资源不足国家的贫困地图 [Xie et al. 2016Jean et al. 2016]、自动驾驶汽车 [Yu et al. 2020aSun et al. 2020a]、医学诊断 [AlBadawy et al. 2018Dai and Gool 2018这样的高风险应用都需要模型良好的泛化到训练数据中没有见过的环境中,例如,测试样例来自不同的国家,处于不同的驾驶条件,或来自不同的医院。先前的工作已经表明:即使是对目前最先进的模型,这些分布变化也会导致性能的大幅下降 [Blitzer et al. 2006Daumé III 2007;Sugiyama et al. 2007Ganin and Lempitsky 2015Peng et al. 2019Kumar et al. 2020aArjovskyet al. 2019Szegedy et al. 2014Hendrycks and Dietterich 2019Sagawa et al. 2020aRecht et al.2019Abney 2007Ruder and Plank 2018Geirhos et al. 2018Kumar et al. 2020bYu et al. 2020b;Geirhos et al. 2020Xie et al. 2021aKoh et al. 2021]

一个基础模型在采样自分布 的大量不同的无标签数据集上进行训练,然后可以被适配到许多的下游任务中。对于每一个下游任务 ,基础模型在带标签的从训练分布 中采样的分布内(in-distribution, ID)训练数据上进行训练,然后在分布外(out-of-distribution, OOD)的测试分布 上进行评价。例如,一个贫困地图预测模型 [Xie et al. 2016; Jean et al. 2016] 可以在全世界的无标签卫星数据中学习所有国家的有用特征,然后在带标签的来自尼日利亚的样例上进行微调,最终在缺乏带标签样例的马拉维上进行评价。

我们认为:1)基础模型在鲁棒性方面是一个特别具有前途的方法。现有工作表明了在无标签数据上进行预训练是一种有效的、通用的提高在 OOD 测试分布上准确性的方法,这与限制于有限的分布变化的许多鲁棒性干预措施相反。然而,我们同样讨论了 2)为什么基础模型可能无法总是应对分布变化,例如某些由于伪相关性或随时间改变的分布变化。最后,3)我们概述了几个利用和提高基础模型鲁棒性的研究方向。

我们注意到,基础模型提高下游任务性能的一个方法是为适配模型提供归纳偏置(通过模型初始化),这些偏置是在下游训练数据之外的多种数据集上学习得到的。然而,同样的归纳偏置也可能从预训练数据中编码有害关联,并在分布变化的情况下导致表示和分配危害。


参考资料:

https://mp.weixin.qq.com/s/yuHeCvmSCDNRUbJX1iLhRA

https://arxiv.org/abs/2108.07258

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“FR56” 就可以获取NeurIPS 2022开会了!大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程,附56页ppt》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
1

相关内容

【IEEE ICASSP 2022教程】非负矩阵分解的最新进展,266页ppt
专知会员服务
74+阅读 · 2022年5月28日
专知会员服务
44+阅读 · 2020年12月26日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
赛尔译文 | 基础模型的机遇与风险 (六)
哈工大SCIR
5+阅读 · 2022年3月9日
KDD2021 | 图表示学习系统教程 (附Slides)
机器学习与推荐算法
3+阅读 · 2021年9月7日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
23+阅读 · 2021年3月4日
Arxiv
35+阅读 · 2020年1月2日
Arxiv
12+阅读 · 2019年3月14日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员