arXiv ID:
2602.08243
离散伴随薛定谔桥采样器 / Discrete Adjoint Schrödinger Bridge Sampler
1️⃣ 一句话总结
这篇论文提出了一种名为离散伴随薛定谔桥采样器的新方法,它成功地将原本用于连续空间的、高效的伴随匹配优化技术,扩展到了离散空间,从而能够更高效地训练出高质量的离散神经网络采样器。
离散伴随薛定谔桥采样器 / Discrete Adjoint Schrödinger Bridge Sampler
这篇论文提出了一种名为离散伴随薛定谔桥采样器的新方法,它成功地将原本用于连续空间的、高效的伴随匹配优化技术,扩展到了离散空间,从而能够更高效地训练出高质量的离散神经网络采样器。
基于混合2D-3D CNN框架的低采样3D锥束CT图像伪影减少方法 / Artifact Reduction in Undersampled 3D Cone-Beam CTs using a Hybrid 2D-3D CNN Framework
这篇论文提出了一种结合2D和3D卷积神经网络优势的混合深度学习框架,能够高效地减少低采样3D CT图像中的伪影,在显著提升图像质量和切片间一致性的同时,保持了较低的计算成本。
少训练,快推理:通过结构化稀疏性实现高效模型微调与压缩 / Train Less, Infer Faster: Efficient Model Finetuning and Compression via Structured Sparsity
这篇论文提出了一种通过结构化稀疏化来微调大语言模型的新方法,它无需大量调整权重,只需训练极少的参数就能让模型适应新任务,同时还能减少模型体积、加快推理速度,并且性能优于现有的主流微调技术。
克里金法与大型神经网络之间的联系 / The Connection between Kriging and Large Neural Networks
这篇论文探讨了空间统计学中的克里金法(及其对应的机器学习方法高斯过程回归)与大型神经网络之间看似不同实则紧密的联系,并指出理解这种关系有助于提升机器学习模型的可解释性、可靠性和空间感知能力。
SDFed:通过子空间精炼与差异控制解决联邦提示学习中的本地-全局差异问题 / SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning
这篇论文提出了一种名为SDFed的新方法,它允许不同设备在保护隐私的联合训练中,根据自身数据特点和计算能力灵活调整学习参数,并通过精巧的设计减少局部优化与全局共享知识之间的冲突,从而在数据分布和设备资源不均的现实场景下,显著提升了视觉-语言大模型的适应效果和鲁棒性。
Raster2Seq:用于平面图重建的多边形序列生成 / Raster2Seq: Polygon Sequence Generation for Floorplan Reconstruction
这篇论文提出了一种名为Raster2Seq的新方法,它将平面图重建任务转化为序列生成问题,通过自回归解码器将图像中的房间、门窗等元素表示为带标签的多边形序列,从而能更灵活、准确地重建具有复杂结构和多变角点的室内平面图。
WorldCompass:面向长视野世界模型的强化学习框架 / WorldCompass: Reinforcement Learning for Long-Horizon World Models
这篇论文提出了一个名为WorldCompass的强化学习框架,它通过创新的采样策略、奖励函数和优化算法,显著提升了视频生成类世界模型在长序列任务中遵循指令的准确性和生成画面的质量。
PTS-SNN:一种用于高效语音情感识别的提示调优时序移位脉冲神经网络 / PTS-SNN: A Prompt-Tuned Temporal Shift Spiking Neural Networks for Efficient Speech Emotion Recognition
这篇论文提出了一种名为PTS-SNN的新型高效神经网络模型,它通过创新的提示调优和时序移位技术,成功地将节能的脉冲神经网络与强大的预训练语音模型结合,从而在保持高精度的同时,大幅降低了语音情感识别任务的计算成本和能耗,使其更适合在手机等资源有限的设备上运行。
因果薛定谔桥:结构流形上的约束最优传输 / Causal Schrödinger Bridges: Constrained Optimal Transport on Structural Manifolds
这篇论文提出了一种名为‘因果薛定谔桥’的新方法,它利用扩散过程将因果推理中的反事实推断问题转化为一个鲁棒的最优传输问题,从而在处理数据分布发生剧烈变化的干预任务时,比传统的确定性模型更稳定、更准确。
基于情境化滚动选择的强化学习与可验证奖励 / Contextual Rollout Bandits for Reinforcement Learning with Verifiable Rewards
这篇论文提出了一种智能调度方法,通过将强化学习训练过程中的历史反馈数据视为可选择的“选项”,并动态挑选出最有价值的反馈来优化模型,从而显著提升了大型语言模型在数学推理等任务上的训练效率和最终性能。
请先 登录 后再提交论文