arXiv ID:
2509.25729
面向隐私合成文本的受控生成 / Controlled Generation for Private Synthetic Text
1️⃣ 一句话总结
这项研究提出了一种结合实体控制代码的新方法,能够在医疗和法律等敏感领域生成既保护个人隐私又保持文本实用性的合成文本。
面向隐私合成文本的受控生成 / Controlled Generation for Private Synthetic Text
这项研究提出了一种结合实体控制代码的新方法,能够在医疗和法律等敏感领域生成既保护个人隐私又保持文本实用性的合成文本。
强化中段训练 / Reinforcement Mid-Training
这篇论文提出了一种在预训练和微调之间加入强化中段训练的新方法,通过动态控制推理步骤、自适应学习关键知识点和双重训练策略,显著提升了语言模型的性能和效率。
MemMamba:重新思考状态空间模型中的记忆模式 / MemMamba: Rethinking Memory Patterns in State Space Model
本文提出了一种名为MemMamba的新型神经网络架构,通过引入状态总结机制和跨层跨令牌注意力,有效解决了现有模型在长序列处理中的记忆衰退问题,在保持线性计算复杂度的同时显著提升了长程记忆能力和推理效率。
元认知增强推理模型:基于自对齐的强化学习 / Meta-Awareness Enhances Reasoning Models: Self-Alignment Reinforcement Learning
这项研究提出了一种名为MASA的自对齐强化学习方法,通过训练语言模型自我评估推理过程来提升其元认知能力,从而在无需外部数据的情况下显著提高数学和逻辑推理任务的准确性和训练效率。
SciReasoner:跨学科科学推理基础模型 / SciReasoner: Laying the Scientific Reasoning Ground Across Disciplines
这篇论文提出了一个跨学科的科学推理基础模型,能够将自然语言与多种科学数据格式对齐,并通过大规模预训练和强化学习技术,在科学翻译、知识提取、性质预测等上百个任务中实现比专业系统更广泛的覆盖和更强的泛化能力。
量化视觉几何基础Transformer / Quantized Visual Geometry Grounded Transformer
这篇论文提出了一种名为QuantVGGT的新方法,通过优化量化技术有效压缩了用于3D重建的大型Transformer模型,在保持高精度的同时大幅降低了内存占用和计算开销,使其更适合在资源有限的设备上部署。
MMR1:通过方差感知采样与开放资源增强多模态推理 / MMR1: Enhancing Multimodal Reasoning with Variance-Aware Sampling and Open Resources
该论文提出了一种方差感知采样方法来解决多模态模型强化学习训练不稳定的问题,并发布了大规模高质量思维链数据和开源模型,显著提升了数学推理任务的性能。
AutoIntent:用于文本分类的自动化机器学习工具 / AutoIntent: AutoML for Text Classification
这篇论文介绍了一个名为AutoIntent的自动化机器学习工具,它能自动完成文本分类任务中的模型选择、分类器优化和决策阈值调整,在保持高性能的同时让用户灵活平衡效果与资源消耗。
CHARM:基于控制点的三维动漫发型自回归建模 / CHARM: Control-point-based 3D Anime Hairstyle Auto-Regressive Modeling
这篇论文提出了一个名为CHARM的新方法,它使用基于控制点的简洁参数和自回归生成框架来自动创建高质量的三维动漫发型,并建立了一个大型数据集来支持训练和评估。
ScaleDiff:为高级数学推理扩展难题规模 / ScaleDiff: Scaling Difficult Problems for Advanced Mathematical Reasoning
这篇论文提出了一种名为ScaleDiff的高效方法,通过自动筛选现有数据集中的难题并训练专门的生成器来大规模创造高难度数学问题,从而显著提升大型推理模型在复杂数学任务上的表现,同时大幅降低了计算成本和人工干预需求。
请先 登录 后再提交论文