arXiv ID:
2604.11508
arXiv 提交日期: 2026-04-13
并非所有遗忘都相同:微调图像分类器中依赖架构的保留动态 / Not All Forgetting Is Equal: Architecture-Dependent Retention Dynamics in Fine-Tuned Image Classifiers
1️⃣ 一句话总结
这项研究发现,在微调图像分类器时,哪些样本容易被遗忘强烈依赖于所使用的神经网络架构(如CNN和ViT),并且这种遗忘模式在不同训练中并不稳定,这挑战了‘样本难度是固有属性’的假设,并对课程学习、数据剪枝和集成学习等方法提出了新见解。