The needs for precisely estimating a student's academic performance have been emphasized with an increasing amount of attention paid to Intelligent Tutoring System (ITS). However, since labels for academic performance, such as test scores, are collected from outside of ITS, obtaining the labels is costly, leading to label-scarcity problem which brings challenge in taking machine learning approaches for academic performance prediction. To this end, inspired by the recent advancement of pre-training method in natural language processing community, we propose DPA, a transfer learning framework with Discriminative Pre-training tasks for Academic performance prediction. DPA pre-trains two models, a generator and a discriminator, and fine-tunes the discriminator on academic performance prediction. In DPA's pre-training phase, a sequence of interactions where some tokens are masked is provided to the generator which is trained to reconstruct the original sequence. Then, the discriminator takes an interaction sequence where the masked tokens are replaced by the generator's outputs, and is trained to predict the originalities of all tokens in the sequence. Compared to the previous state-of-the-art generative pre-training method, DPA is more sample efficient, leading to fast convergence to lower academic performance prediction error. We conduct extensive experimental studies on a real-world dataset obtained from a multi-platform ITS application and show that DPA outperforms the previous state-of-the-art generative pre-training method with a reduction of 4.05% in mean absolute error and more robust to increased label-scarcity.


翻译:精确估计学生学术成绩的需要得到了强调,对智能教学系统(ITS)的关注程度越来越高。然而,由于从ITS外部收集了测试分等学术成绩标签,因此标签成本昂贵,导致标签刺痕问题,在采用机器学习方法进行学术业绩预测方面带来挑战。为此,由于在自然语言处理界最近推进了培训前方法,我们建议政治部建立一个转移学习框架,为学术业绩预测提供一个有差异性的培训前任务的培训前任务。政治部前两个模型,一个发电机和一个导师,微调学术业绩预测的导师。在政治部的培训前阶段,向接受过重建原始序列培训的发电机提供一些象征的连带问题。随后,由于在自然语言处理界,我们建议采用一个互动序列,将隐性标志替换为预示牌,并用来预测序列中的所有标志的原始性。与先前的状态前两个模型,即一个生成和导师的稳健的两种模型相比,一个从先前的基因趋同式的升级方法,一个比以往的系统前阶段,一个快速的实验性模型学前方法,即演示前的演示式数据学前方法,从一个比差式数据学前的方法,从一个比差式,一个比差式数据学前的方法,从一个更高的方法到演示式的快速地学前的方法,一个比制的磨制式的磨制的磨制式方法,在政治部。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
1+阅读 · 2021年9月8日
Learning Discriminative Model Prediction for Tracking
Arxiv
4+阅读 · 2016年9月20日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | CCF推荐期刊专刊约稿信息6条
Call4Papers
5+阅读 · 2019年2月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员