arXiv ID:
2604.19015
arXiv 提交日期: 2026-04-21
FedProxy:通过代理小语言模型和异构感知融合实现大语言模型的联邦微调 / FedProxy: Federated Fine-Tuning of LLMs via Proxy SLMs and Heterogeneity-Aware Fusion
1️⃣ 一句话总结
本文提出FedProxy框架,用一个从大模型压缩而来的小语言模型作为代理,在保护大模型知识产权和客户端隐私的前提下,通过三阶段架构高效解决联邦微调中性能下降与数据异构的难题,性能接近集中式训练。