本次HFL参赛评测方案,主要分为检测和修正两部分,相关工作发表在NLPTEA 2020 workshop中,论文题目为《Combining ResNet and Transformer for Chinese Grammatical Error Diagnosis》。在检测任务中,研究者提出了ResBERT模型,在BERT模型基础上融入残差网络,增强输出层中每个输入字的信息,使模型可以更好地检测语法错误位置。ResBERT模型结构图在修正任务中,由于序列标注模型无法直接给出语法错误的修正结果,研究者针对缺失错误和用词不当错误分别采用如下两种方法进行修正:针对缺失错误,研究者首先预测缺失位置缺失的字数,然后再使用BERT语言模型生成修正候选结果,最后通过比较多个候选修正句子的困惑度来确定缺失修正结果。针对用词不当错误,研究者使用RoBERTa模型选取候选字,然后再综合考虑字音、字形相似度以及语言模型打分来选出最终的修正结果。修正技术框架图HFL观察到,今年的比赛中语病修正的指标还很低,最高的F1值也未超过0.2,原因是什么呢?通过分析评测数据可以看出,数据以单句形式给出,比如“那个时候我尝尝去美术馆参观画。”语病修正的参考答案为:将“尝尝”改为“尝试”,而合理的修正方法其实有很多种,比如也可以改成“常常”等。仅通过单句的信息,无法确定唯一的修正结果,需要更多的上下文信息才能确定作者所要表达的真实意图。这给评测数据的构建也提出了不小的挑战。因此,要想提升语病修正的效果并在实际产品中应用,对于篇章级文本的诊断分析是非常有必要的,这也给未来的评测和技术提出了更高的要求。3