与线下工作方式不同,在线学习有两种研究模式: (1) 在线元学习(OML)[6, 20, 26]在任务依次揭示的序列设置中学习模型参数的良好先验(或学习学习)。尽管它提供了一个次线性遗憾界限,这种技术完全忽略了公平学习的重要性,而公平学习是人类智能的一个重要标志。(2) 在线公平感知学习[1,8,21]。这种设置捕获了许多涉及公平性的分类问题。但它的目标是在没有任何特定任务适应性的情况下实现零概率泛化。因此,这限制了模型适应新到达数据的能力。为了克服这些问题,弥补这一差距,本文首次提出了一种新的在线元学习算法,即FFML,该算法是在不公平预防的背景下进行的。FFML的关键部分是学习在线公平分类模型的原始参数和对偶参数的良好先验,它们分别与模型的准确性和公平性有关。这个问题的形式是一个双层次的凸-凹优化。理论分析提供了损失后悔的次线性上界𝑂(log𝑇),违反累积公平约束的上界𝑂(p𝑇log𝑇)。我们的实验通过将FFML应用于三个真实数据集上的分类,证明了它的通用性,并在公平性和分类准确性之间的权衡上显示了比最好的预先工作的实质性改进。

成为VIP会员查看完整内容
16

相关内容

专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
14+阅读 · 2021年6月16日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
38+阅读 · 2021年1月27日
专知会员服务
25+阅读 · 2021年1月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【DeepMind-NeurIPS 2020】元训练代理实现Bayes-optimal代理
专知会员服务
11+阅读 · 2020年11月1日
论文浅尝 - ICLR2020 | 通过神经逻辑归纳学习有效地解释
开放知识图谱
5+阅读 · 2020年6月17日
在稀疏和欠明确奖励中学习泛化
谷歌开发者
6+阅读 · 2019年3月20日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
关系推理:基于表示学习和语义要素
计算机研究与发展
18+阅读 · 2017年8月22日
Arxiv
0+阅读 · 2021年9月23日
Scene Graph Generation for Better Image Captioning?
Arxiv
0+阅读 · 2021年9月23日
Arxiv
6+阅读 · 2020年12月8日
Bridging Knowledge Graphs to Generate Scene Graphs
Arxiv
5+阅读 · 2020年1月7日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
16+阅读 · 2021年8月6日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
14+阅读 · 2021年6月16日
【AAAI2021-斯坦福】身份感知的图神经网络
专知会员服务
38+阅读 · 2021年1月27日
专知会员服务
25+阅读 · 2021年1月21日
【AAAI2021】 层次图胶囊网络
专知会员服务
83+阅读 · 2020年12月18日
【DeepMind-NeurIPS 2020】元训练代理实现Bayes-optimal代理
专知会员服务
11+阅读 · 2020年11月1日
相关资讯
微信扫码咨询专知VIP会员