While intelligent tutoring systems (ITSs) can use information from past students to personalize instruction, each new student is unique. Moreover, the education problem is inherently difficult because the learning process is only partially observable. We therefore develop a dynamic, time-series environment to simulate a classroom setting, with student-teacher interventions - including tutoring sessions, lectures, and exams. In particular, we design the simulated environment to allow for varying levels of probing interventions that can gather more information. Then, we develop reinforcement learning ITSs that combine learning the individual state of students while pulling from population information through the use of probing interventions. These interventions can reduce the difficulty of student estimation, but also introduce a cost-benefit decision to find a balance between probing enough to get accurate estimates and probing so often that it becomes disruptive to the student. We compare the efficacy of standard RL algorithms with several greedy rules-based heuristic approaches to find that they provide different solutions, but with similar results. We also highlight the difficulty of the problem with increasing levels of hidden information, and the boost that we get if we allow for probing interventions. We show the flexibility of both heuristic and RL policies with regards to changing student population distributions, finding that both are flexible, but RL policies struggle to help harder classes. Finally, we test different course structures with non-probing policies and we find that our policies are able to boost the performance of quiz and midterm structures more than we can in a finals-only structure, highlighting the benefit of having additional information.


翻译:尽管智能辅导系统(ITSs)可以利用过往学生的信息进行个性化教学,但每位新生都具有独特性。此外,教育问题本质上具有挑战性,因为学习过程仅能部分被观测。为此,我们开发了一个动态时间序列环境来模拟课堂场景,包含师生互动——如辅导课程、讲座和考试。特别地,我们设计的模拟环境允许采用不同强度的探查式干预以获取更多信息。随后,我们开发了强化学习智能辅导系统,该系统通过探查式干预结合个体学生状态学习与群体信息提取。这些干预虽能降低学生状态估计的难度,但也引入了成本效益决策,需在获取准确估计所需的探查频率与避免过度干扰学生之间寻求平衡。我们比较了标准强化学习算法与多种基于贪婪规则的启发式方法的效果,发现它们提供了不同的解决方案,但结果相近。我们还强调了随着隐藏信息层级增加而加剧的问题难度,以及允许探查式干预带来的提升效果。我们展示了启发式策略与强化学习策略对学生群体分布变化的适应性,发现两者均具灵活性,但强化学习策略在帮助难度较高的班级时面临困难。最后,我们测试了非探查式策略下的不同课程结构,发现我们的策略在测验和期中考试结构中比仅期末考试结构更能提升表现,这凸显了获取额外信息的优势。

0
下载
关闭预览

相关内容

数学上,序列是被排成一列的对象(或事件);这样每个元素不是在其他元素之前,就是在其他元素之后。这里,元素之间的顺序非常重要。
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
预知未来——Gluon 时间序列工具包(GluonTS)
ApacheMXNet
24+阅读 · 2019年6月25日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员