arXiv ID:
2602.19510
arXiv 提交日期: 2026-02-23
少即是多:在更长周期内减少数据权重更新的收敛优势 / Less is More: Convergence Benefits of Fewer Data Weight Updates over Longer Horizon
1️⃣ 一句话总结
这篇论文通过理论分析和实验证明,在训练机器学习模型时,用于调整不同训练数据源权重的‘数据混合’任务中,相比频繁更新权重,将计算资源更多地用于模型参数更新(即减少权重更新次数但每次更新前进行更充分的模型训练)反而能带来更好的收敛效果。