自训练算法训练模型以适应另一个先前学习的模型预测的伪标签,对于使用神经网络对未标记的数据进行学习非常成功。但是,当前对自训练的理论理解仅适用于线性模型。这项工作为半监督学习,无监督领域适应和无监督学习提供了深度网络自训练的统一理论分析。我们分析的核心是一个简单但现实的“扩展”假设,该假设指出,数据的低概率子集必须扩展到相对于子集而言具有较大概率的邻域。我们还假设不同类别中的示例邻域具有最小的重叠。我们证明在这些假设下,基于自训练和输入一致性正则化的人口目标最小化方法将在地面真相标签方面实现高精度。通过使用现成的泛化边界,我们立即将此结果转换为在边际和Lipschitzness中为多项式的神经网络的样本复杂度保证。我们的结果有助于解释最近提出的使用输入一致性正则化的自训练算法的经验成功。

https://www.zhuanzhi.ai/paper/dd480967a4f15984429301bca4c6cc92

成为VIP会员查看完整内容
25

相关内容

专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
10+阅读 · 2021年3月21日
专知会员服务
41+阅读 · 2021年1月18日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
108+阅读 · 2020年12月18日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
半监督深度学习小结:类协同训练和一致性正则化
通过时空模型迁移学习的无监督的跨数据集行人重新识别
统计学习与视觉计算组
8+阅读 · 2018年10月23日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
8+阅读 · 2018年4月8日
Arxiv
11+阅读 · 2018年1月15日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
10+阅读 · 2021年3月21日
专知会员服务
41+阅读 · 2021年1月18日
最新《非凸优化理论》进展书册,79页pdf
专知会员服务
108+阅读 · 2020年12月18日
微信扫码咨询专知VIP会员