Remote photoplethysmography (rPPG) is a useful camera-based health motioning method that can estimate the heart rate (HR) and heart rate variability (HRV) from facial videos. Many well-established deep learning models can provide highly accurate and robust results in heart rhythm measurement using rPPG. However, most previous models usually require enormous computational resources and a 30-second facial video, which significantly limits their applications in real-world scenarios. Hence, we propose a lightweight pulse simulation network named FastBVP-Net to measure heart rhythm via facial videos. In the FastBVP-Net, we designed a multi-frequency mode signal fusion mechanism to suppress the noise components and get stable blood volume pulse (BVP) signals quickly. Moreover, we developed an oversampling training strategy to solve the unbalanced distribution of HR in the dataset. Finally, we estimate the HR and HRV based on BVP signals derived by the FastBVP-Net. Comprehensive experiments are conducted on three benchmark datasets, our approach achieves competitive performance both on HR and HRV estimation from 30-second facial videos and HR estimation from 15-second facial videos comparing to the state-of-the-art methods. We also achieve promising results of computational speed and the number of parameters, demonstrating proposed network is a lightweight method.


翻译:远距光谱成像仪(rPPG)是一种基于摄影机的有益健康运动方法,可以用面部视频来估计心率(HR)和心率变异性(HRV),许多成熟的深层次学习模型可以在使用RPPG进行心脏节奏测量方面提供非常准确和稳健的结果。然而,大多数前几个模型通常需要巨大的计算资源和30秒面部视频,这大大限制了其在现实世界情景中的应用。因此,我们提议建立一个名为FastBVP-Net的轻量脉冲模拟网络,以通过面部视频测量心律。在快速BVP-Net中,我们设计了一个多频模式信号聚合机制,以抑制噪音组件,并迅速获得稳定的血液量脉冲信号。此外,我们制定了一个过度抽样培训战略,以解决数据集中人力资源分布不平衡的问题。最后,我们根据快速BVP-Net的BVP信号估算了HRV的HR和HRVS-Net信号,对三个基准数据集进行了全面实验,我们的方法从30秒的面部面部图像和HRV估计中取得了竞争性业绩,从30秒的面部面部面部面部图像和HR-图的模拟计算结果,我们还从15秒的模拟算算得出了15秒的光速率。

0
下载
关闭预览

相关内容

专知会员服务
60+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
VIP会员
相关VIP内容
专知会员服务
60+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员