In existing biometric authentication methods, the user must perform an authentication operation such as placing a finger in a scanner or facing a camera. With ear acoustic authentication, acoustic characteristics of the ear canal are used as biometric information. Therefore, a person wearing earphones does not need to perform any authentication operation. In biometric authentication, it is necessary to minimize the false acceptance rate (FAR) so that no unauthorized user is misidentified as an authorized user. However, if the FAR is set low, it increases the false rejection rate (FRR), the rate at which authorized users are falsely recognized as unauthorized users. It has been reported that when FAR is 0.1%, the FRR in ear acoustic authentication reaches as much as 22%. In this study, we propose a method that reduces FRR and enhances authentication accuracy; it generates new ear canal acoustic characteristics called between-class (BC) features, which combine the ear canal acoustic characteristics of authorized and unauthorized users features. The proposed method uses a support vector machine to learn the BC features as the data of authorized users, then generates a hyperplane in an area close to that data. We hypothesize that this would decrease the possibility of misidentifying an unauthorized user as an authorized user and decrease the FRR when the FAR is 0.1%. To evaluate the performance of the proposed method, BC features were applied to ear acoustic authentication, and FAR and FRR were calculated. The FRR with FAR = 0.1% was 7.95% lower than with the previous method, and the equal error rate -- the error rate when FAR and FRR are equivalent -- decreased by 0.15%. These results confirmed that the proposed method can make ear acoustic authentication more convenient while maintaining a high level of security.


翻译:在现有的生物鉴别认证方法中,用户必须执行认证操作,例如将手指放在扫描器中或面对相机。在耳声认证中,耳声运河的声学特性被用作生物鉴别信息。因此,戴耳机的人不需要进行任何认证操作。在生物鉴别认证中,有必要尽量减少虚假的接收率(FAR),这样可以将未经授权的用户误认为授权用户的声学特征混为授权用户。但是,如果FAR被设定为低,则会提高虚假的拒绝率(FRR),授权用户被误认为未经授权用户的用户。据报告,当FAR为0.1%时,耳声认证的音频特性会达到22%。在这项研究中,我们建议采用一种方法来减少FRR(FAR)的音响声学特性,在使用FRR(FR)的声学特性时,使用支持矢量的频率会提高,然后在接近该数据的地区生成一个超额的机率。我们假设,在使用FRRR(R)的声学方法后,将降低FR(FR)-R(R)的声道)的声学质量率(R)的概率(RL)和(FRR)(FR)(R)(FR)(FR)(R)(I)(I)(I)(I)(I)(I)(I)(I)(I)的)的)(I)(I)(I)的)(I)(I)(R)(I)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(L)(I)(L)的)的)的)的)的)(L)(L)的)(L)(L)的)的)的)(或(或(L)(L)(或(L)(和)(或)的)的)的)的)(或(L)(或(L)(和)(或(和)的)的)(和)的)的)的)比率值)的)的)比率(和)(和)比率值值值(比(比(比(和)的)(比)的)(比(

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年7月6日
Arxiv
0+阅读 · 2022年7月6日
Arxiv
16+阅读 · 2020年5月20日
VIP会员
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium4
中国图象图形学学会CSIG
0+阅读 · 2021年11月10日
【ICIG2021】Latest News & Announcements of the Plenary Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年11月2日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员