论文名称:Combining Self-Training and Self-Supervised Learningfor Unsupervised Disfluency Detection 论文作者:王少磊,王重元,车万翔,刘挺 原创作者:王少磊 论文链接:http://ir.hit.edu.cn/~slwang/emnlp2020.pdf

摘要:文本顺滑(Disfluency Detection)的目的是删除自动语音识别(ASR)结果中的不顺滑的词,从而得到更自然和通顺的句子。目前大部分在文本顺滑(Disfluency Detection)任务上的工作都严重依赖人工标注数据。在本工作中,我们首次尝试用无监督的方法来解决文本顺滑问题。我们通过结合自训练(self-training)和自监督(self-supervised)两种方法,在不采用任何有标注训练数据的情况下,取得了跟目前最好的有监督方法接近的效果。

成为VIP会员查看完整内容
23

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
专知会员服务
26+阅读 · 2020年11月5日
【COLING2020】无监督依存解析的综述论文,12页pdf
专知会员服务
15+阅读 · 2020年10月27日
专知会员服务
18+阅读 · 2020年10月13日
专知会员服务
31+阅读 · 2020年9月2日
专知会员服务
50+阅读 · 2020年7月16日
专知会员服务
110+阅读 · 2020年3月20日
论文浅尝 | 面向自动问题生成的跨语言训练
开放知识图谱
8+阅读 · 2019年9月6日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
结合弱监督信息的凸聚类
计算机研究与发展
6+阅读 · 2017年8月30日
Deep Co-Training for Semi-Supervised Image Segmentation
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Arxiv
7+阅读 · 2018年3月22日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关VIP内容
专知会员服务
26+阅读 · 2020年11月5日
【COLING2020】无监督依存解析的综述论文,12页pdf
专知会员服务
15+阅读 · 2020年10月27日
专知会员服务
18+阅读 · 2020年10月13日
专知会员服务
31+阅读 · 2020年9月2日
专知会员服务
50+阅读 · 2020年7月16日
专知会员服务
110+阅读 · 2020年3月20日
相关资讯
微信扫码咨询专知VIP会员