arXiv ID:
2602.15711
用于图核机器的随机小波特征 / Random Wavelet Features for Graph Kernel Machines
1️⃣ 一句话总结
这篇论文提出了一种新的随机特征方法,能够高效且准确地近似复杂的图核函数,从而为大规模图数据提供了一种可扩展且理论完备的节点表示学习方案。
用于图核机器的随机小波特征 / Random Wavelet Features for Graph Kernel Machines
这篇论文提出了一种新的随机特征方法,能够高效且准确地近似复杂的图核函数,从而为大规模图数据提供了一种可扩展且理论完备的节点表示学习方案。
神经预测器的相对几何:连接学习到的潜在几何中的准确性与对齐性 / Relative Geometry of Neural Forecasters: Linking Accuracy and Alignment in Learned Latent Geometry
这篇论文通过一种新的几何分析方法发现,不同神经网络模型在预测复杂动态系统时,其内部表示结构存在清晰的家族相似性,但高预测精度并不总是与这种内部结构的高度一致性直接挂钩。
连续时间分段线性循环神经网络 / Continuous-Time Piecewise-Linear Recurrent Neural Networks
这篇论文提出了一种新的连续时间分段线性循环神经网络模型及其训练算法,它既能像传统离散时间模型一样有效重建复杂动力系统,又保持了数学上的可分析性,还能直接处理不规则时间间隔的数据。
对齐崩溃的几何学:当微调破坏安全性时 / The Geometry of Alignment Collapse: When Fine-Tuning Breaks Safety
这篇论文发现,即使使用无害数据对已对齐的大语言模型进行微调,也会因为模型参数空间中安全对齐结构固有的几何脆弱性,导致安全护栏在训练过程中被系统地、不可预测地破坏,其根本原因在于梯度下降无法感知和避开高曲率的低维敏感子空间。
方向性推理轨迹变化(DRTC):识别推理模型中的关键轨迹段 / Directional Reasoning Trajectory Change (DRTC): Identifying Critical Trace Segments in Reasoning Models
这篇论文提出了一种名为DRTC的新方法,它通过分析模型在推理过程中不确定性和概率分布的变化,来精准定位并量化是哪些前文信息真正‘扭转’了模型的推理方向,从而帮助我们理解大语言模型是如何一步步思考的。
共同信念再探讨 / Common Belief Revisited
这篇论文挑战了关于‘共同信念’逻辑属性的传统观点,证明了它并非简单的KD4系统,而是需要增加一个与智能体数量相关的新公理才能完整刻画。
ExLipBaB:面向分段线性神经网络的确切利普希茨常数计算 / ExLipBaB: Exact Lipschitz Constant Computation for Piecewise Linear Neural Networks
这篇论文提出了一种名为ExLipBaB的新算法,能够精确计算使用各种分段线性激活函数(如ReLU、LeakyReLU、GroupSort等)的神经网络在任意p-范数下的利普希茨常数,为评估模型鲁棒性、可逆网络设计等应用提供了精确的基准工具。
预算约束下的LLM即法官 / LLM-as-Judge on a Budget
这篇论文提出了一种在有限计算资源下,通过动态分配查询次数来更准确评估大语言模型性能的智能方法,其核心是优先将资源用于不确定性最高的评估项,从而显著降低整体评估误差。
离散扩散模型的高效采样:锐利且自适应的理论保证 / Efficient Sampling with Discrete Diffusion Models: Sharp and Adaptive Guarantees
这篇论文为离散扩散模型的采样效率建立了严格的理论保证,证明了其采样复杂度可以摆脱对词汇表大小的线性依赖,并能自动适应数据的内在低维结构,从而在多种实际数据上实现更高效的采样。
基于部分因果图的因果概率边界估计 / Bounding Probabilities of Causation with Partial Causal Diagrams
这篇论文提出了一种新方法,能够在因果信息不完整的情况下,通过数学优化模型有效估算个体层面因果关系的概率范围,从而将因果推断的应用扩展到更贴近现实的复杂场景。
请先 登录 后再提交论文