arXiv ID:
2603.16015
平滑校准的重要性 / The Importance of Being Smoothly Calibrated
1️⃣ 一句话总结
这篇论文证明了,通过给预测模型添加少量噪声使其‘平滑校准’,可以保证模型在各种未知的决策任务中都能做出接近最优的预测,并且揭示了这种校准误差与最优校准分布之间的深刻联系。
平滑校准的重要性 / The Importance of Being Smoothly Calibrated
这篇论文证明了,通过给预测模型添加少量噪声使其‘平滑校准’,可以保证模型在各种未知的决策任务中都能做出接近最优的预测,并且揭示了这种校准误差与最优校准分布之间的深刻联系。
对决赌博机中孔多塞胜者识别的采样复杂度 / The Sampling Complexity of Condorcet Winner Identification in Dueling Bandits
这篇论文提出了一种新的识别方法,通过利用所有候选选项之间的两两比较信息,而非仅仅关注胜者与其他选项的比较,显著降低了在随机对决赌博机模型中准确找出最优选项所需的最小样本量,并首次给出了该问题的理论最优样本复杂度界限。
对数障碍函数如何助力策略优化中的探索 / How Log-Barrier Helps Exploration in Policy Optimization
这篇论文提出了一种在对策略优化目标中加入对数障碍函数的新方法,它能在不增加样本复杂度的前提下,强制算法进行有效探索,从而在更现实的条件下保证收敛到最优策略。
局部乌雷松宽度:一种用于分类的拓扑复杂性度量 / Local Urysohn Width: A Topological Complexity Measure for Classification
这篇论文提出了一种名为‘局部乌雷松宽度’的新指标,它从数据空间的拓扑几何结构本身来衡量分类问题的固有难度,并证明了这种难度与传统的VC维等指标有本质不同,且会直接影响学习所需的最小样本量。
可复现可实现PAC学习的样本复杂度 / The Sample Complexity of Replicable Realizable PAC Learning
这篇论文通过构造一个特别困难的学习问题,并利用图论和随机游走等新颖方法,首次证明了在可复现的PAC学习框架下,所需样本量的下界几乎与假设类大小的(对数)的3/2次方成正比,并且这个下界几乎是紧的。
学习条件平均值 / Learning Conditional Averages
这篇论文在经典的PAC学习框架中引入了一个新问题:学习‘条件平均值’,即预测每个数据点在其所属任意邻域内的平均标签,而不是学习目标概念本身,并给出了该问题何时可学习的完整理论刻画。
关键视界:多阶段操作与深度推理的检查设计原则 / The Critical Horizon: Inspection Design Principles for Multi-Stage Operations and Deep Reasoning
这篇论文发现,在生产线、服务流程或AI推理链等多阶段任务中,将最终结果归因于早期步骤的信号会随阶段数指数级衰减,形成了一个无法仅凭最终数据学习的‘关键视界’,并为此提供了最优的检查点设计原则。
预训练模型规模扩展可证明降低下游任务样本复杂度 / Provable Target Sample Complexity Improvements as Pre-Trained Models Scale
这篇论文通过一个名为‘填隙’的新理论框架,首次从理论上证明了更大的预训练模型确实能降低下游任务的学习所需数据量,为实践中观察到的‘模型越大,下游性能越好’的规律提供了坚实的数学解释。
请先 登录 后再提交论文