与线下工作方式不同,在线学习有两种研究模式: (1) 在线元学习(OML)[6, 20, 26]在任务依次揭示的序列设置中学习模型参数的良好先验(或学习学习)。尽管它提供了一个次线性遗憾界限,这种技术完全忽略了公平学习的重要性,而公平学习是人类智能的一个重要标志。(2) 在线公平感知学习[1,8,21]。这种设置捕获了许多涉及公平性的分类问题。但它的目标是在没有任何特定任务适应性的情况下实现零概率泛化。因此,这限制了模型适应新到达数据的能力。为了克服这些问题,弥补这一差距,本文首次提出了一种新的在线元学习算法,即FFML,该算法是在不公平预防的背景下进行的。FFML的关键部分是学习在线公平分类模型的原始参数和对偶参数的良好先验,它们分别与模型的准确性和公平性有关。这个问题的形式是一个双层次的凸-凹优化。理论分析提供了损失后悔的次线性上界𝑂(log𝑇),违反累积公平约束的上界𝑂(p𝑇log𝑇)。我们的实验通过将FFML应用于三个真实数据集上的分类,证明了它的通用性,并在公平性和分类准确性之间的权衡上显示了比最好的预先工作的实质性改进。