arXiv ID:
2602.22287
多层次因果嵌入 / Multi-Level Causal Embeddings
1️⃣ 一句话总结
这篇论文提出了一种新的‘因果嵌入’框架,能够将多个精细的因果模型整合到一个更宏观的模型之中,从而解决不同来源或不同粒度的数据集合并与分析的难题。
多层次因果嵌入 / Multi-Level Causal Embeddings
这篇论文提出了一种新的‘因果嵌入’框架,能够将多个精细的因果模型整合到一个更宏观的模型之中,从而解决不同来源或不同粒度的数据集合并与分析的难题。
NGDB-Zoo:迈向高效可扩展的神经图数据库训练 / NGDB-Zoo: Towards Efficient and Scalable Neural Graph Databases Training
这篇论文提出了一个名为NGDB-Zoo的新框架,通过将训练过程拆解成可并行执行的算子流并融入外部语义知识,大幅提升了神经图数据库的训练效率和推理表达能力。
快速矩阵乘法算法的神经学习:一种StrassenNet方法 / Neural Learning of Fast Matrix Multiplication Algorithms: A StrassenNet Approach
这篇论文设计了一个名为StrassenNet的神经网络,它能够自动学习并重新发现经典的Strassen快速矩阵乘法算法,并通过实验证据推测了3x3矩阵乘法所需的最小计算复杂度。
海运船舶燃油消耗的估计与优化:综述、挑战与未来方向 / Estimation and Optimization of Ship Fuel Consumption in Maritime: Review, Challenges and Future Directions
这篇论文系统梳理了海运船舶燃油消耗的预测与优化方法,首次将预测模型分为物理模型、机器学习模型和混合模型三类,并强调了数据融合与可解释人工智能的重要性,同时指出了数据质量、实时优化等关键挑战及未来研究方向。
当学习带来伤害:用于实时在线训练的固定极点循环神经网络 / When Learning Hurts: Fixed-Pole RNN for Real-Time Online Training
这篇论文通过理论和实验证明,在数据有限、需要实时学习的场景下,固定循环神经网络内部动态的极点参数,只训练输出层,比同时训练所有参数效果更好、更稳定且计算成本更低。
Mamba遇上调度:利用高效序列建模学习求解柔性作业车间调度问题 / Mamba Meets Scheduling: Learning to Solve Flexible Job Shop Scheduling with Efficient Sequence Modeling
这篇论文提出了一种基于Mamba状态空间模型的新型AI架构,它能更高效、更准确地解决复杂的柔性作业车间调度问题,在速度和性能上都超越了现有最好的学习方法。
因果函数中变量离散化导致的粗化偏差 / Coarsening Bias from Variable Discretization in Causal Functionals
这篇论文指出,在因果推断中,为了计算方便而将连续变量离散化会引入显著的近似偏差,并提出了一种通过评估组内条件均值来消除主要偏差项的简单方法,从而大幅提高了估计精度。
Muon+:通过一个额外的归一化步骤改进Muon优化器 / Muon+: Towards Better Muon via One Additional Normalization Step
这篇论文提出了一种名为Muon+的改进版优化器,它在原有Muon优化器的梯度正交化步骤后增加了一个归一化步骤,从而在各种规模和架构的大语言模型预训练中,都能稳定地提升训练效果和验证性能。
从词语到氨基酸:深度诅咒是否依然存在? / From Words to Amino Acids: Does the Curse of Depth Persist?
这篇论文研究发现,在蛋白质语言模型中,模型的深层网络对最终预测的贡献有限,存在与大型语言模型类似的‘深度诅咒’现象,提示未来需要设计更高效的模型架构。
训练数据质量对分类器性能的影响 / Effects of Training Data Quality on Classifier Performance
这篇论文通过实验发现,当训练数据质量下降时,四种主流分类器的性能会同步恶化,它们会犯类似的错误,导致分类边界变得稀疏且预测结果从基本正确退化为偶然正确。
请先 登录 后再提交论文