arXiv ID:
2603.05060
arXiv 提交日期: 2026-03-05
多任务学习的渐近行为:隐式正则化与双下降效应 / Asymptotic Behavior of Multi--Task Learning: Implicit Regularization and Double Descent Effects
1️⃣ 一句话总结
这篇论文通过理论分析和实验证明,多任务学习之所以能提升模型泛化能力,是因为它在数学上等效于给模型添加了额外的正则化项,从而能够延缓甚至消除训练过程中常见的‘双下降’过拟合现象。