arXiv ID:
2603.01526
arXiv 提交日期: 2026-03-02
可扩展的多任务低秩模型适配方法 / Scalable Multi-Task Low-Rank Model Adaptation
1️⃣ 一句话总结
本文提出了一种名为mtLoRA的新方法,通过选择性正则化、块级适配和细粒度路由三个关键技术,解决了现有技术在将低秩适配扩展到大量任务时出现的性能急剧下降问题,在显著减少参数和训练时间的同时,在多个大规模视觉和自然语言处理任务上取得了更好的效果。