arXiv ID:
2603.03007
arXiv 提交日期: 2026-03-03
打破原型偏见循环:面向高度不平衡客户端的置信度感知联邦对比学习 / Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients
1️⃣ 一句话总结
这篇论文提出了一种名为CAFedCL的新方法,通过引入置信度感知的原型聚合和增强对比学习,有效解决了联邦学习中因客户端数据类别不平衡和异构性导致的原型偏见循环问题,从而在提高模型准确性和客户端公平性方面优于现有方法。