ATK模型精要解读 网上对这篇论文的精读和泛读总结都有,由于只想借鉴此方法的精髓用于自己的模型设计,因此不再对内容要点做总结,只结合论文代码对ATK模型做解析。 模型效果 根据论文和代码,确实能复现出和论文指标差不多的性能。 在数据集assist2009_pid上,运行效果如下图。 python main.py --dataset assist2009_p...
Attentive knowledge tracing (AKT) 目前KT中有两个假设: 学习者过去的表现可以被压缩在一个集合的向量中,这些向量可以表示学习者当前的知识水平 (knowledge level). 学习者未来的表现可以用当前的知识水平来预测。 引入一种通用的模型,用 t 表示离散时间的索引,即一个学生第几次做的题。 rt∼f(ht),ht∼g...
摘要 这篇文章提出了AKT模型, 使用了单调性注意力机制, 考虑过去的做题记录来决策未来的做题结果, 另外使用了Rasch 模型来正则化习题和概念的嵌入。 AKT方法 1上下文感知表示和知识检索 通过两个encoder使用单调性注意力机制,分别将原始的习题嵌入 \(\{\mathbf{x}_1,..
Context-Aware Attentive Knowledge TracingAritra GhoshNeil HeffernanAndrew S. LanKnowledge Discovery and Data Mining
Context-Aware Attentive Knowledge Tracing 来自 arXiv.org 喜欢 0 阅读量: 534 作者:A Ghosh,N Heffernan,AS Lan 摘要: Knowledge tracing (KT) refers to the problem of predicting future learner performance given their past performance in educational applications. Recent developments in KT using flexible...
2016). However, qualitative assessment needs also an attentive and accurate planning to avoid unmanageable results. In retrospect, it is worth mentioning how Bernroider et al. (2016) admit that questionnaire and terminology might have been more precise in their study if workshops and interviews ...
Context-Aware Attentive Knowledge Tracingdoi:10.1145/3394486.3403282Andrew S. LanAritra GhoshNeil HeffernanACM
知识跟踪(Knowledge Tracing, KT)是预测学习者未来表现的问题。最近基于深度神经网络的方法效果良好,但缺乏解释性。 现有方法很难同时实现准确的预测和提供解释性反馈。这限制了 KT 在个性化学习中的应用。 解决方法: 提出了注意力知识跟踪(Attentive Knowledge Tracing, AKT)方法,结合了注意力机制、认知科学理论和心理...
Paper:Context-Aware Attentive Knowledge TracingCode:github.com/arghosh/AKT ⭐ 动机 使用单调注意力网络来计算当前问题与学习者过去回答的每个问题之间的练习。 使用Rasch 模型计算问题嵌入和交互嵌入,这些嵌入能够捕获同一知识点的问题之间的个体差异,而无需使用过多的参数。 ⭐ 模型 1【 编码器和检索器 】 问...
Incremental Context Aware Attentive Knowledge Tracing. In Proceedings of the 2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Singapore, 23–27 May 2022; pp. 3993–3997. [Google Scholar] Pardos, Z.A.; Heffernan, N.T. Modeling Individualization in a ...