arXiv ID:
2605.14752
arXiv 提交日期: 2026-05-14
基于认知不确定性的知识蒸馏:准确识别学生错误概念 / Cognitive-Uncertainty Guided Knowledge Distillation for Accurate Classification of Student Misconceptions
1️⃣ 一句话总结
本文提出一种两阶段知识蒸馏方法,通过分析教师模型在分类时的认知不确定性,从现有数据中智能筛选出高价值样本,让小型模型仅用10%的精选数据就能在识别学生常见错误概念的任务上大幅超越大模型,同时解决了数据稀缺、错误类别模糊和模型部署困难等问题。