This paper proposes a new method for in vivo and almost real-time identification of biomechanical properties of the human cornea based on non-contact tonometer data. Further goal is to demonstrate the method's functionality based on synthetic data serving as reference. For this purpose, a finite element model of the human eye is constructed to synthetically generate displacement full-fields from different datasets with keratoconus-like degradations. Then, a new approach based on the equilibrium gap method (EGM) combined with a mechanical morphing approach is proposed and used to identify the material parameters from virtual test data sets. In a further step, random absolute noise is added to the virtual test data to investigate the sensitivity of the new approach to noise. As a result, the proposed method shows a relevant accuracy in identifying material parameters based on displacement full fields. At the same time, the method turns out to work almost in real-time (order of a few minutes on a regular work station) and is thus much faster than inverse problems solved by typical forward approaches. On the other hand, the method shows a noticeable sensitivity to rather small noise amplitudes. However, analysis show that the accuracy is sufficient for the identification of diseased tissue properties.


翻译:本文根据非接触强力计数据,提出了一种新的人类角膜生物机能特性活体识别和几乎实时识别方法。进一步的目标是根据作为参照的合成数据,展示该方法的功能。为此,将人类眼的有限元素模型构建成合成的全场迁移,从带有角形降解的不同数据集中合成产生全场迁移。随后,提出了一种基于平衡差距方法(EGM)的新方法,加上机械变形方法,并用来确定虚拟测试数据集的物质参数。进一步地,在虚拟测试数据中添加随机绝对噪音,以调查对噪音的新方法的敏感性。因此,拟议方法显示在确定基于全场迁移的物质参数方面的相关准确性。与此同时,该方法几乎可以实时工作(在常规工作站的几分钟内),因此比典型的前方方法所解决的反向问题要快得多。另一方面,该方法显示对微噪音振动特性的明显敏感性。然而,分析显示疾病特性的足够精确性。

0
下载
关闭预览

相关内容

专知会员服务
39+阅读 · 2020年9月6日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
已删除
将门创投
4+阅读 · 2017年12月12日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
LIMO: Lidar-Monocular Visual Odometry
Arxiv
3+阅读 · 2018年7月19日
VIP会员
相关资讯
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
已删除
将门创投
4+阅读 · 2017年12月12日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
Top
微信扫码咨询专知VIP会员