Mobile device proficiency is increasingly important for everyday living, including to deliver healthcare services. Human-device interactions represent a potential in cognitive neurology and aging research. Although traditional pen-and-paper evaluations serve as valuable tools within public health strategies for population-scale cognitive assessments, digital devices could amplify cognitive assessment. However, even person-centered studies often fail to incorporate measures of mobile device proficiency and research with digital mobile technology frequently neglects these evaluations. Besides that, cognitive screening, a fundamental part of brain health evaluation and a widely accepted strategy to identify high-risk individuals vulnerable to cognitive impairment and dementia, has research using digital devices for older adults in need for standardization. To address this shortfall, the DigiTAU collaborative and interdisciplinary project is creating refined methodological parameters for the investigation of digital biomarkers. With careful consideration of cognitive design elements, here we describe the open-source and performance-based Mobile Device Abilities Test (MDAT), a simple, low-cost, and reproductible open-sourced test framework. This result was achieved with a cross-sectional study population sample of 101 low and middle-income subjects aged 20 to 79 years old. Partial least squares structural equation modeling (PLS-SEM) was used to assess the measurement of the construct. It was possible to achieve a reliable method with internal consistency, good content validity related to digital competences, and that does not have much interference with auto-perceived global functional disability, health self-perception, and motor dexterity. Limitations for this method are discussed and paths to improve and establish better standards are highlighted.


翻译:暂无翻译

0
下载
关闭预览

相关内容

Cognition:Cognition:International Journal of Cognitive Science Explanation:认知:国际认知科学杂志。 Publisher:Elsevier。 SIT: http://www.journals.elsevier.com/cognition/
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
140+阅读 · 2020年7月6日
专知会员服务
53+阅读 · 2020年3月16日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年11月15日
Arxiv
0+阅读 · 2023年11月15日
VIP会员
相关资讯
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员