As Facial Expression Recognition (FER) systems become integrated into our daily lives, these systems need to prioritise making fair decisions instead of aiming at higher individual accuracy scores. Ranging from surveillance systems to diagnosing mental and emotional health conditions of individuals, these systems need to balance the accuracy vs fairness trade-off to make decisions that do not unjustly discriminate against specific under-represented demographic groups. Identifying bias as a critical problem in facial analysis systems, different methods have been proposed that aim to mitigate bias both at data and algorithmic levels. In this work, we propose the novel usage of Continual Learning (CL), in particular, using Domain-Incremental Learning (Domain-IL) settings, as a potent bias mitigation method to enhance the fairness of FER systems while guarding against biases arising from skewed data distributions. We compare different non-CL-based and CL-based methods for their classification accuracy and fairness scores on expression recognition and Action Unit (AU) detection tasks using two popular benchmarks, the RAF-DB and BP4D datasets, respectively. Our experimental results show that CL-based methods, on average, outperform other popular bias mitigation techniques on both accuracy and fairness metrics.


翻译:随着偏差表现识别(FER)系统被纳入我们的日常生活,这些系统需要优先考虑作出公平决定,而不是提高个人准确分数。从监测系统到诊断个人的精神和情感健康状况,这些系统需要平衡准确性与公平性权衡,以便作出不不公正地歧视某些代表性不足的人口群体的决定。在面部分析系统中,将偏见确定为关键问题,提出了不同方法,旨在减少数据和算法层面上的偏差。在这项工作中,我们提议采用新的持续学习(CL),特别是使用Domain-Incernal Learning (Domain-Incernal Learning) 设置,作为一种有力的减少偏差的方法,以提高FER系统的公平性,同时防止因分散的数据分布而产生的偏差。我们比较了不同的非CLL和CL-broad方法,以其分类准确性和对表达识别和行动股(AU)的公正分数,使用两个流行基准,即RAF-D和BP4D数据集。我们的实验结果表明,CL-C-Indroad 方法在平均、偏差性衡量方法方面都显示CL-precality。

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【CMU】机器学习导论课程(Introduction to Machine Learning)
专知会员服务
60+阅读 · 2019年8月26日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
12+阅读 · 2017年10月13日
Arxiv
20+阅读 · 2020年6月8日
Arxiv
5+阅读 · 2020年3月17日
Incremental Reading for Question Answering
Arxiv
5+阅读 · 2019年1月15日
Arxiv
5+阅读 · 2018年12月18日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关VIP内容
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【CMU】机器学习导论课程(Introduction to Machine Learning)
专知会员服务
60+阅读 · 2019年8月26日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
已删除
将门创投
12+阅读 · 2017年10月13日
Top
微信扫码咨询专知VIP会员