arXiv ID:
2602.04233
arXiv 提交日期: 2026-02-04
预训练模型规模扩展可证明降低下游任务样本复杂度 / Provable Target Sample Complexity Improvements as Pre-Trained Models Scale
1️⃣ 一句话总结
这篇论文通过一个名为‘填隙’的新理论框架,首次从理论上证明了更大的预训练模型确实能降低下游任务的学习所需数据量,为实践中观察到的‘模型越大,下游性能越好’的规律提供了坚实的数学解释。