In this paper, we seek to draw connections between the frontal and profile face images in an abstract embedding space. We exploit this connection using a coupled-encoder network to project frontal/profile face images into a common latent embedding space. The proposed model forces the similarity of representations in the embedding space by maximizing the mutual information between two views of the face. The proposed coupled-encoder benefits from three contributions for matching faces with extreme pose disparities. First, we leverage our pose-aware contrastive learning to maximize the mutual information between frontal and profile representations of identities. Second, a memory buffer, which consists of latent representations accumulated over past iterations, is integrated into the model so it can refer to relatively much more instances than the mini-batch size. Third, a novel pose-aware adversarial domain adaptation method forces the model to learn an asymmetric mapping from profile to frontal representation. In our framework, the coupled-encoder learns to enlarge the margin between the distribution of genuine and imposter faces, which results in high mutual information between different views of the same identity. The effectiveness of the proposed model is investigated through extensive experiments, evaluations, and ablation studies on four benchmark datasets, and comparison with the compelling state-of-the-art algorithms.
翻译:在本文中, 我们试图在抽象的嵌入空间中绘制正面图像和剖面脸图像之间的连接。 我们利用这种连接, 使用一个配对编码网络将正面/ 剖面图像投射到一个共同的潜在嵌入空间中。 拟议的模型通过使脸部两种观点之间的相互信息最大化, 使嵌入空间的表达形式具有相似性。 提议的组合编码从三个贡献中受益, 以匹配面部与极端的构成差异。 首先, 我们利用我们具有面部和剖面特征的表达形式之间的面貌对比学习最大化。 第二, 由过去迭代所积累的潜在代表组成的记忆缓冲, 被整合到模型中, 这样它可以指比微型批量大小要多得多的更多的例子。 第三, 新型的表面认知对立面域适应方法迫使模型学习从剖面到面面面面部的不对称映射。 在我们的框架中, 组合组合组合组合组合学习扩大真实面面和外表分布之间的距离, 从而导致对同一身份的不同观点之间的高度的相互信息。 通过广泛实验、 对比、 对比、 分析 分析 和 分析 分析 分析 分析 和 分析 分析 分析 分析 分析 分析 和 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 和 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 分析 。