在机器学习领域,我们致力于开发能够学习的算法,即在没有被特别编程完成某项任务的情况下,积累关于如何完成任务的知识。在这篇论文中,我们从两个不同的角度来探讨学习:我们可以应用高效机器学习者的领域以及我们可以通过更有效地解决底层优化问题来改进学习的方式。机器学习方法通常非常依赖数据。虽然现代机器学习在解决实际问题方面取得了巨大成功,但这些成功案例主要局限于有大量相关领域数据可用的设置。元学习领域旨在通过创建“学会如何学习”的模型(即能够在给出相对较少的示例时迅速适应新任务的模型)来开发具有改进的样本效率的模型。在本论文中,我们关注使用超网络进行任务适应的摊销元学习者,这些学习者成本非常有效,只需通过超网络进行一次前向传播即可学会如何执行新任务。我们展示了这些摊销元学习者可以以超出其在小样本学习设置中的典型用途的新方式来利用。

我们针对摊销元学习者开发了一种基于集合的中毒攻击,这种攻击让我们能够定制一组协同作用的输入,用作适应新任务的训练数据(即作为支持集)时,这些输入能够欺骗系统的学习算法。这样共同制作的对抗性输入可以协同操纵分类器,对于具有可微适应机制的摊销学习者来说,这种输入尤其容易计算。我们还在可解释性领域利用摊销学习者进行“数据集调试”,在此过程中,我们开发了一种称为Meta-LOO的数据价值或样本重要性策略,可用于检测噪声或分布外数据;或者将一组示例提炼到其最有用的元素。

从我们的第二个角度看,机器学习和优化是密切相关的;实际上,学习可以被表述为以模型参数为目标的训练损失最小化问题——尽管实际上我们还需要我们的算法具有泛化能力,这不是更广泛优化的关注点。选择的优化策略影响了算法学习的速度以及找到的解决方案(即模型参数)的质量。通过研究优化,我们可以改善我们的模型的学习效果和速度。

在这篇论文中,我们采取了双管齐下的方法来实现这一目标。首先,我们开发了一种在线超梯度基础的超参数优化策略,通过支持广泛的超参数同时保持可扩展性,改进了现有的最佳技术。值得注意的是,我们的方法支持优化算法的超参数,如学习率和动量,这是文献中类似方法不支持的。其次,我们开发了一种适用于深度学习的非凸损失景观的二阶优化策略。我们的算法近似了一个鞍点是排斥而非吸引的鞍点自由版本的Hessian,以一种适用于深度学习问题的方式。

成为VIP会员查看完整内容
37

相关内容

剑桥大学(英语:University of Cambridge;勋衔:Cantab)为一所座落于英国剑桥郡剑桥市的研究型大学。它是英语世界中历史第二悠久的大学,也是世界现存第四古老的大学。剑桥大学的起源为一群牛津大学的学者,因与牛津市民发生冲突而移居至剑桥。剑桥与牛津这两所在中世纪建立的英国大学,在校务运作、学术声望、社会地位等多方面都非常相似,经常合称为“牛剑”
【CMU博士论文】以人为中心的机器学习:统计和算法视角
专知会员服务
39+阅读 · 2023年10月1日
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
24+阅读 · 2018年2月27日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员