arXiv ID:
2601.21115
arXiv 提交日期: 2026-01-28
多任务代码大语言模型:数据混合还是模型合并? / Multi-task Code LLMs: Data Mix or Model Merge?
1️⃣ 一句话总结
这篇论文通过实验对比发现,在资源有限的情况下,对于大型模型(如7B参数),通过合并多个专用模型来创建多任务代码模型效果更好,能保持各项任务的高性能;而对于小型模型(如2B参数),在训练时直接混合多种任务数据则是更优的策略。