arXiv ID:
2602.01990
arXiv 提交日期: 2026-02-02
SAME:用于多模态持续指令微调的稳定专家混合模型 / SAME: Stabilized Mixture-of-Experts for Multimodal Continual Instruction Tuning
1️⃣ 一句话总结
本文提出了一种名为SAME的新方法,通过稳定专家选择和更新过程,有效解决了多模态大语言模型在持续学习新任务时出现的性能遗忘和干扰问题,从而在无需重复训练旧数据的情况下,实现了更稳定、高效的能力扩展。