arXiv ID:
2603.02639
arXiv 提交日期: 2026-03-03
凸与非凸联邦学习中陈旧随机梯度的处理:递减步长是唯一所需 / Convex and Non-convex Federated Learning with Stale Stochastic Gradients: Diminishing Step Size is All You Need
1️⃣ 一句话总结
这篇论文证明,在分布式联邦学习场景中,当各参与方的梯度信息可能存在延迟、偏差或陈旧时,使用预先设定好的递减步长策略,就能达到与复杂自适应步长方法相同的优化效果,并且适用于非凸和强凸目标函数。