arXiv ID:
2603.14706
arXiv 提交日期: 2026-03-16
AdapterTune:用于冻结视觉Transformer的零初始化低秩适配器 / AdapterTune: Zero-Initialized Low-Rank Adapters for Frozen Vision Transformers
1️⃣ 一句话总结
这篇论文提出了一种名为AdapterTune的新方法,通过向冻结的视觉Transformer模型添加零初始化的低秩适配器,解决了微调过程中的优化不稳定和参数容量设置难题,在显著减少训练参数的同时,取得了比仅训练分类头或全模型微调更好的图像分类性能。