arXiv ID:
2602.04364
任意时间有效的共形风险控制 / Anytime-Valid Conformal Risk Control
1️⃣ 一句话总结
这篇论文提出了一种新的统计方法,能够确保在数据随时间累积增长的任何时刻,机器学习模型的预测不确定性(以预测集形式呈现)都能以高概率满足预设的误差控制要求,即使在数据分布发生变化时也有效。
任意时间有效的共形风险控制 / Anytime-Valid Conformal Risk Control
这篇论文提出了一种新的统计方法,能够确保在数据随时间累积增长的任何时刻,机器学习模型的预测不确定性(以预测集形式呈现)都能以高概率满足预设的误差控制要求,即使在数据分布发生变化时也有效。
预训练模型规模扩展可证明降低下游任务样本复杂度 / Provable Target Sample Complexity Improvements as Pre-Trained Models Scale
这篇论文通过一个名为‘填隙’的新理论框架,首次从理论上证明了更大的预训练模型确实能降低下游任务的学习所需数据量,为实践中观察到的‘模型越大,下游性能越好’的规律提供了坚实的数学解释。
基于偏好学习和逆强化学习的智能体价值系统学习 / Learning the Value Systems of Agents with Preference-based and Inverse Reinforcement Learning
这篇论文提出了一种新方法,通过观察和人类演示来自动学习智能体的价值系统,从而帮助它们在互动中做出符合伦理和道德原则的决策。
论大语言模型强化微调中的熵动态 / On the Entropy Dynamics in Reinforcement Fine-Tuning of Large Language Models
这篇论文建立了一个理论框架来分析大语言模型在强化微调过程中输出多样性的变化规律,并基于此提出了控制多样性的方法,以帮助模型在微调时更好地平衡探索新答案和利用已知知识。
加速噪声幂方法的改进分析及其在去中心化主成分分析中的应用 / Improved Analysis of the Accelerated Noisy Power Method with Applications to Decentralized PCA
这篇论文改进了加速噪声幂方法的理论分析,大幅放宽了对计算误差的限制条件,并基于此提出了首个具有可证明加速收敛性的去中心化主成分分析算法,在保持通信成本不变的情况下显著提升了效率。
基于因果效应关系分布不变性的因果图学习 / Causal Graph Learning via Distributional Invariance of Cause-Effect Relationship
这篇论文提出了一种新方法,通过检验‘原因’变化时‘结果’的条件分布是否保持不变来高效地从观测数据中学习因果图,其算法比现有先进方法快达25倍,且在大规模数据集上表现优异。
序列群组合:窥探深度学习机制的一扇窗 / Sequential Group Composition: A Window into the Mechanics of Deep Learning
这篇论文通过设计一个名为‘序列群组合’的数学任务,揭示了不同深度神经网络(如浅层网络、循环网络和多层网络)在处理序列数据时,如何利用群的结构和运算的关联性来高效学习,从而为理解深度学习的内部工作机制提供了一个可分析的理论模型。
Lipschitz多尺度深度平衡模型:一种理论保证且加速的方法 / Lipschitz Multiscale Deep Equilibrium Models: A Theoretically Guaranteed and Accelerated Approach
这篇论文提出了一种改进的深度平衡模型,通过引入Lipschitz多尺度结构和调整超参数,在理论上保证了模型前向和反向传播中不动点迭代的收敛性,从而在图像分类任务上显著提升了计算速度,仅以微小的精度损失为代价。
群体选择作为防范人工智能替代的保障 / Group Selection as a Safeguard Against AI Substitution
这篇论文通过建模研究发现,过度依赖AI替代人类创作会降低文化多样性并可能导致文化停滞,而将AI作为辅助工具使用的群体则能保持创新活力,因此需要通过群体层面的选择机制来鼓励后者,以规避长期风险。
通过多样性理解基于大语言模型的多智能体系统中的智能体扩展 / Understanding Agent Scaling in LLM-Based Multi-Agent Systems via Diversity
这项研究发现,在基于大语言模型的多智能体系统中,单纯增加同质智能体的数量对性能提升效果有限,而引入不同模型、提示或工具的异质性智能体则能通过提供互补信息,显著提升系统性能,其根本原因在于系统性能受限于任务本身的不确定性,而非智能体数量。
请先 登录 后再提交论文