arXiv ID:
2603.08647
arXiv 提交日期: 2026-03-09
增长而非覆盖:实现无遗忘的模型微调 / Grow, Don't Overwrite: Fine-tuning Without Forgetting
1️⃣ 一句话总结
这篇论文提出了一种创新的模型微调方法,通过复制并扩展预训练模型的内部结构来学习新任务,从而在保持原有能力不丢失的同时,达到与完全微调相当的新任务性能,且计算成本更低。