We address the problem of predicting the correctness of the student's response on the next exam question based on their previous interactions in the course of their learning and evaluation process. We model the student performance as a dynamic problem and compare the two major classes of dynamic neural architectures for its solution, namely the finite-memory Time Delay Neural Networks (TDNN) and the potentially infinite-memory Recurrent Neural Networks (RNN). Since the next response is a function of the knowledge state of the student and this, in turn, is a function of their previous responses and the skills associated with the previous questions, we propose a two-part network architecture. The first part employs a dynamic neural network (either TDNN or RNN) to trace the student knowledge state. The second part applies on top of the dynamic part and it is a multi-layer feed-forward network which completes the classification task of predicting the student response based on our estimate of the student knowledge state. Both input skills and previous responses are encoded using different embeddings. Regarding the skill embeddings we tried two different initialization schemes using (a) random vectors and (b) pretrained vectors matching the textual descriptions of the skills. Our experiments show that the performance of the RNN approach is better compared to the TDNN approach in all datasets that we have used. Also, we show that our RNN architecture outperforms the state-of-the-art models in four out of five datasets. It is worth noting that the TDNN approach also outperforms the state of the art models in four out of five datasets, although it is slightly worse than our proposed RNN approach. Finally, contrary to our expectations, we find that the initialization of skill embeddings using pretrained vectors offers practically no advantage over random initialization.


翻译:我们根据学生在学习和评估过程中的先前互动情况,解决了预测学生对下一个考试问题的正确性的问题。我们以动态问题为学生表现模型,并比较两种主要的动态神经结构类型,以找到解决方案,即有限的模拟时间延缓神经网络(TDNNN)和潜在的无限模拟经常性神经网络(RNN)。由于下一个答复是学生知识状态的函数,而这反过来又取决于他们以前对下一个考试问题作出的价值反应和与前一个问题相关的技能。我们提出一个双部分的网络结构。我们将学生业绩作为动态神经结构的两个主要类别(TDNN或RNNN)来模拟学生知识状态。第二个部分在动态部分的顶端应用多层反馈网络,根据我们对学生知识状况的估计完成预测学生反应的分类任务。输入技能和先前的响应都通过不同的嵌入式来调出。关于技术嵌入的两种不同的初始模型,我们用两种不同的初始模型(TDNNNM 或R ) 方法的初始化方法,我们用四个初始模型来追踪学生的知识模式, 最终显示我们使用的RNF 数据格式, 显示我们所使用的所有矢中的数据是前的版本。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
误差反向传播——RNN
统计学习与视觉计算组
18+阅读 · 2018年9月6日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关VIP内容
专知会员服务
52+阅读 · 2020年9月7日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
误差反向传播——RNN
统计学习与视觉计算组
18+阅读 · 2018年9月6日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Top
微信扫码咨询专知VIP会员