Text-based machine comprehension (MC) systems have a wide-range of applications, and standard corpora exist for developing and evaluating approaches. There has been far less research on spoken question answering (SQA) systems. The SQA task considered in this paper is to extract the answer from a candidate$\text{'}$s spoken response to a question in a prompt-response style language assessment test. Applying these MC approaches to this SQA task rather than, for example, off-topic response detection provides far more detailed information that can be used for further downstream processing. One significant challenge is the lack of appropriately annotated speech corpora to train systems for this task. Hence, a transfer-learning style approach is adopted where a system trained on text-based MC is evaluated on an SQA task with non-native speakers. Mismatches must be considered between text documents and spoken responses; non-native spoken grammar and written grammar. In practical SQA, ASR systems are used, necessitating an investigation of the impact of ASR errors. We show that a simple text-based ELECTRA MC model trained on SQuAD2.0 transfers well for SQA. It is found that there is an approximately linear relationship between ASR errors and the SQA assessment scores but grammar mismatches have minimal impact.


翻译:以文字为基础的机器理解(MC)系统的应用范围很广,在开发和评价方法方面存在着标准公司,对口答(SQA)系统的研究要少得多,本文考虑的SQA的任务是从候选人中提取对一个问题的口头回答,即:在迅速答复式语言评估测试中,对一个问题的答复是$\text{}美元;在SQA任务中应用这些MC方法,而不是以非主题的语法和书面语法。在实际应用SQA中,ASR系统提供了更详细得多的信息,可用于进一步下游处理。一个重大挑战是缺乏适当的附加说明的演讲公司来培训这项任务的系统。因此,在对基于文字的MC任务进行评估时,采用了一种转让学习方式,即与非母语发言人一起对SQA任务进行评价的系统。必须在文本文件和口语法答复中考虑错误;使用非本地语言语法和书面语法。在SQA实际应用中,需要调查ASR错误的影响。我们表明,基于文字的E-ECTRAMC在SQA中发现了一个典型的SQA关系,但SA-AMA是在那里的典型的SAQATRAC 。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
专知会员服务
94+阅读 · 2021年8月28日
【微软】深度学习推理系统,45页ppt
专知会员服务
35+阅读 · 2021年6月27日
专知会员服务
15+阅读 · 2021年6月4日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】图像分类必读开创性论文汇总
机器学习研究会
14+阅读 · 2017年8月15日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
9+阅读 · 2016年10月27日
VIP会员
Top
微信扫码咨询专知VIP会员