arXiv ID:
2601.21487
流形约束最速下降法 / Manifold constrained steepest descent
1️⃣ 一句话总结
这篇论文提出了一种名为MCSD的单循环优化框架,用于解决数据点位于特定几何结构(流形)上的机器学习问题,它通过巧妙结合线性优化和投影步骤,在保持理论收敛性的同时,比现有方法更稳定高效。
流形约束最速下降法 / Manifold constrained steepest descent
这篇论文提出了一种名为MCSD的单循环优化框架,用于解决数据点位于特定几何结构(流形)上的机器学习问题,它通过巧妙结合线性优化和投影步骤,在保持理论收敛性的同时,比现有方法更稳定高效。
通过混合整数优化实现交叉公平 / Intersectional Fairness via Mixed-Integer Optimization
这篇论文提出了一种基于混合整数优化的新方法,用于训练既公平又易于理解的AI分类器,它特别关注并有效解决了多个受保护群体(如种族、性别)交叉重叠时产生的复杂偏见问题,为金融、医疗等高监管行业提供了实用的解决方案。
神经网络训练的自动稳定性与恢复 / Automatic Stability and Recovery for Neural Network Training
这篇论文提出了一种在神经网络训练过程中自动监控、检测并从中断性错误中恢复的运行时框架,无需修改原有优化器,从而保证了训练过程的稳定性和安全性。
迈向解耦3D高斯泼溅优化的一步 / A Step to Decouple Optimization in 3DGS
这篇论文发现并解决了当前3D高斯泼溅技术中优化过程存在的耦合问题,通过解耦和重组优化步骤,最终提出了一种名为AdamW-GS的新优化方法,在提升训练效率的同时获得了更好的3D场景重建效果。
过程奖励学习提升大语言模型推理能力并拓宽推理边界 / PRL: Process Reward Learning Improves LLMs' Reasoning Ability and Broadens the Reasoning Boundary
这篇论文提出了一种名为过程奖励学习(PRL)的新方法,它通过将最终结果的奖励分解为推理过程中的精细监督信号来训练大语言模型,从而在理论上更严谨、训练上更高效地提升了模型的推理能力和解决复杂问题的上限。
可学习的乘数:释放语言模型矩阵层的尺度 / Learnable Multipliers: Freeing the Scale of Language Model Matrix Layers
这篇论文提出了一种为语言模型的矩阵层引入可学习乘数的新方法,通过自动优化权重尺度来替代传统权重衰减导致的次优平衡,从而在不同优化器下都提升了模型性能。
嵌套学习:深度学习架构的幻觉 / Nested Learning: The Illusion of Deep Learning Architectures
这篇论文提出了一种名为‘嵌套学习’的新学习范式,它将机器学习模型视为一组嵌套的、多层次的优化问题,并基于此设计了能够自我修改和持续学习的新模型,为解决现有模型在持续学习和上下文理解方面的根本挑战提供了新思路。
视觉同步:通过跨视角物体运动实现多相机同步 / Visual Sync: Multi-Camera Synchronization via Cross-View Object Motion
这篇论文提出了一种名为VisualSync的优化框架,它利用不同视角下物体运动的几何约束,能够自动、高精度地同步来自多个普通相机的未标定、未同步的视频,无需昂贵硬件或人工干预。
从优化视角修正大语言模型的思维过程 / Rectifying LLM Thought from Lens of Optimization
这篇论文提出了一种名为RePro的新方法,通过将大语言模型的推理过程看作优化步骤,并设计一个评估推理过程质量的奖励机制,来训练模型避免过度思考和冗长推理,从而提升其在数学、科学和编程等任务上的表现。
AlphaFlow:理解与改进MeanFlow模型 / AlphaFlow: Understanding and Improving MeanFlow Models
这篇论文发现现有MeanFlow生成模型存在优化冲突问题,并提出了一种新的AlphaFlow方法,通过渐进式训练策略有效解决了冲突,在图像生成任务上取得了更快的收敛速度和更好的性能表现。
请先 登录 后再提交论文