For the task of face verification, we explore the utility of harnessing auxiliary facial emotion labels to impose explicit geometric constraints on the embedding space when training deep embedding models. We introduce several novel loss functions that, in conjunction with a standard Triplet Loss [43], or ArcFace loss [10], provide geometric constraints on the embedding space; the labels for our loss functions can be provided using either manually annotated or automatically detected auxiliary emotion labels. We analyze the performance of our methods on nine different (CK+, PubFig, Tufts, VggFace2, LFW, YTF, MegaFace, IJB-B, IJB-C). Our results consistently show that the additional structure encoded about each face's emotions results in an embedding model that gives higher verification accuracy than training with just ArcFace or Triplet Loss alone. Moreover, the method is significantly more accurate than a simple multi-task learning approach. Our method is implemented purely in terms of the loss function and does not require any changes to the neural network backbone of the embedding function.


翻译:对于面部校验任务,我们探索了利用辅助面部情绪标签对嵌入空间施加明确几何限制的实用性。我们引入了几个新的损失功能,这些功能与标准的Triplet Loss[43]或Arcface损失[10]一道,为嵌入空间提供了几何限制;我们损失功能的标签可以使用人工加注或自动检测的辅助情感标签来提供。我们分析了我们在9种不同方法(CK+、PubFig、Tufts、VggFace2、LFW、YTF、MegaFace、IJB-B、IJB-C)上的表现。我们的结果一致表明,对每张脸部情感加码的额外结构导致嵌入模型比仅使用ArcFace或Triplet Loss的训练更准确。此外,这种方法比简单的多任务学习方法要准确得多。我们的方法在损失功能方面纯粹实施,不需要对嵌入功能的内心网络主干。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
41+阅读 · 2021年4月2日
生成对抗网络GAN在各领域应用研究进展(中文版),37页pdf
专知会员服务
150+阅读 · 2020年12月30日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年6月19日
Arxiv
6+阅读 · 2020年9月29日
Arxiv
7+阅读 · 2018年1月21日
Arxiv
11+阅读 · 2018年1月18日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员