Pre-trained language models have achieved noticeable performance on the intent detection task. However, due to assigning an identical weight to each sample, they suffer from the overfitting of simple samples and the failure to learn complex samples well. To handle this problem, we propose a density-based dynamic curriculum learning model. Our model defines the sample's difficulty level according to their eigenvectors' density. In this way, we exploit the overall distribution of all samples' eigenvectors simultaneously. Then we apply a dynamic curriculum learning strategy, which pays distinct attention to samples of various difficulty levels and alters the proportion of samples during the training process. Through the above operation, simple samples are well-trained, and complex samples are enhanced. Experiments on three open datasets verify that the proposed density-based algorithm can distinguish simple and complex samples significantly. Besides, our model obtains obvious improvement over the strong baselines.


翻译:预先培训的语言模型在意图检测任务上取得了显著的成绩,然而,由于给每个样本都赋予了相同的重量,它们因简单样本的过重和未能很好地学习复杂的样本而受到损害。为了解决这个问题,我们建议了一个基于密度的动态课程学习模型。我们的模型根据样本的精密密度来界定样本的难度水平。这样,我们同时利用所有样本的精液的分布。然后,我们采用动态课程学习战略,对不同难度的样本给予不同的关注,并在培训过程中改变样本的比例。通过上述操作,简单样本经过良好培训,复杂的样本得到加强。对三个开放数据集的实验证实,拟议的基于密度的算法可以显著地区分简单和复杂的样本。此外,我们的模型在强大的基线上取得了明显的改进。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
1+阅读 · 2021年8月21日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
21+阅读 · 2020年10月11日
Learning Memory-guided Normality for Anomaly Detection
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
1+阅读 · 2021年8月21日
Arxiv
6+阅读 · 2021年6月24日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
21+阅读 · 2020年10月11日
Learning Memory-guided Normality for Anomaly Detection
Top
微信扫码咨询专知VIP会员