Early diagnosis of Alzheimer's disease (AD) is crucial in facilitating preventive care and to delay further progression. Speech based automatic AD screening systems provide a non-intrusive and more scalable alternative to other clinical screening techniques. Textual embedding features produced by pre-trained language models (PLMs) such as BERT are widely used in such systems. However, PLM domain fine-tuning is commonly based on the masked word or sentence prediction costs that are inconsistent with the back-end AD detection task. To this end, this paper investigates the use of prompt-based fine-tuning of PLMs that consistently uses AD classification errors as the training objective function. Disfluency features based on hesitation or pause filler token frequencies are further incorporated into prompt phrases during PLM fine-tuning. The decision voting based combination among systems using different PLMs (BERT and RoBERTa) or systems with different fine-tuning paradigms (conventional masked-language modelling fine-tuning and prompt-based fine-tuning) is further applied. Mean, standard deviation and the maximum among accuracy scores over 15 experiment runs are adopted as performance measurements for the AD detection system. Mean detection accuracy of 84.20% (with std 2.09%, best 87.5%) and 82.64% (with std 4.0%, best 89.58%) were obtained using manual and ASR speech transcripts respectively on the ADReSS20 test set consisting of 48 elderly speakers.


翻译:阿尔茨海默病(AD)的早期诊断对于促进预防护理和延迟进一步发展至关重要。基于语音的自动AD筛查系统提供了一种非侵入性和更可扩展的替代方案,这是其他临床筛查技术的替代方案。预先训练的语言模型(PLMs)生成的文本嵌入特征,如BERT,在这些系统中被广泛使用。然而,PLM领域的微调通常基于掩模词或句子预测成本,这与后端AD检测任务不一致。为此,本文研究了使用基于提示的PLM微调,在训练目标函数中一致地使用AD分类错误。在PLM微调期间,在提示短语中进一步加入了基于迟疑或暂停填充符令牌频率的不流畅特征。进一步应用使用不同PLMs(包括BERT和RoBERTa)或使用不同微调范式(包括传统的掩模语言建模微调和基于提示的微调)的系统之间的决策投票组合。平均值、标准差和在15次实验运行中得分的最大值被采用作为AD检测系统的性能测量。在由48个老年人说话者组成的ADReSS20测试集上,使用手动和ASR语音转录本分别获得了84.20% (标准差为2.09%,最好为87.5%)和82.64% (标准差为4.0%,最好为89.58%)的平均检测准确率。

0
下载
关闭预览

相关内容

预训练语言模型fine-tuning近期进展概述
专知会员服务
37+阅读 · 2021年4月9日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
NAACL 2022 | 基于Prompt的文本生成迁移学习
PaperWeekly
1+阅读 · 2022年8月31日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
7+阅读 · 2023年5月18日
Conditional Prompt Learning for Vision-Language Models
Arxiv
13+阅读 · 2022年3月10日
Arxiv
21+阅读 · 2020年10月11日
VIP会员
相关VIP内容
预训练语言模型fine-tuning近期进展概述
专知会员服务
37+阅读 · 2021年4月9日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
145+阅读 · 2019年10月12日
相关资讯
相关基金
Top
微信扫码咨询专知VIP会员