📄 论文总结
Delta激活:一种用于微调后大语言模型的表示方法 / Delta Activations: A Representation for Finetuned Large Language Models
1️⃣ 一句话总结
本文提出了一种名为Delta激活的新方法,通过测量微调后模型与基础模型内部激活的差异来生成向量表示,从而帮助有效分类和比较不同任务及领域的微调模型,促进模型复用。
请先 登录 后再提交论文
Delta激活:一种用于微调后大语言模型的表示方法 / Delta Activations: A Representation for Finetuned Large Language Models
本文提出了一种名为Delta激活的新方法,通过测量微调后模型与基础模型内部激活的差异来生成向量表示,从而帮助有效分类和比较不同任务及领域的微调模型,促进模型复用。
基于边缘数据输运蒸馏的少步流三维生成方法 / Few-step Flow for 3D Generation via Marginal-Data Transport Distillation
这项研究提出了一种名为MDT-dist的新方法,通过优化速度匹配和速度蒸馏目标,将复杂的三维生成模型的采样步骤从25步大幅减少到1-2步,在保持高质量生成效果的同时实现了6.5倍到9倍的加速。
过渡模型:重新思考生成式学习目标 / Transition Models: Rethinking the Generative Learning Objective
这篇论文提出了一种名为过渡模型(TiM)的新生成式AI方法,它通过一个灵活的连续时间动态方程,能够在任意生成步数下高效工作,仅用8.65亿参数就在图像质量和分辨率上超越了参数量大得多的主流模型,并且生成质量会随着步数增加稳定提升。
NER检索器:基于类型感知嵌入的零样本命名实体检索 / NER Retriever: Zero-Shot Named Entity Retrieval with Type-Aware Embeddings
这篇论文提出了一种无需预定义实体类型、直接根据用户描述检索相关实体的新方法,通过优化大语言模型内部表示并训练轻量级网络,实现了高效且灵活的零样本实体检索。
从编辑器到密集几何估计器 / From Editor to Dense Geometry Estimator
这篇论文发现图像编辑模型比生成模型更适合用于密集几何估计任务,并提出了一个名为FE2E的新框架,通过改进训练目标和数据格式,无需额外数据就能在深度和法线估计上取得显著性能提升。
Loong:通过验证器大规模合成长链思维 / Loong: Synthesize Long Chain-of-Thoughts at Scale through Verifiers
这篇论文提出了一个名为Loong的开源框架,通过自动验证的合成数据生成和强化学习,帮助大语言模型在数学、化学等多种复杂推理领域提升其长链思维推理能力。
联合增强语言模型生成内容的多样性与质量 / Jointly Reinforcing Diversity and Quality in Language Model Generations
这篇论文提出了一个名为DARLING的强化学习框架,通过同时优化回答质量和语义多样性,解决了大语言模型在训练后常常牺牲多样性来提升准确性的问题,从而在创意写作和数学解题等任务中生成既优质又新颖的内容。
基于监督学习框架的隐式行动者评论家耦合强化学习可验证奖励方法 / Implicit Actor Critic Coupling via a Supervised Learning Framework for RLVR
这篇论文提出了一种名为PACS的新方法,通过将强化学习中的可验证奖励问题转化为监督学习任务,巧妙地结合了行动者和评论家的角色,从而在数学推理等任务上实现了更稳定高效的训练和更优的性能表现。
MedDINOv3:如何将视觉基础模型适配于医学图像分割? / MedDINOv3: How to adapt vision foundation models for medical image segmentation?
这项研究提出了一种名为MedDINOv3的简单有效方法,通过改进视觉基础模型架构并结合大规模医学图像预训练,成功解决了自然图像与医学图像间的领域差异问题,使其在多种CT和MRI器官与肿瘤分割任务中达到或超越了现有最佳模型的性能。
Baichuan-M2:通过大规模验证系统扩展医疗能力 / Baichuan-M2: Scaling Medical Capability with Large Verifier System
这篇论文提出了一个动态验证框架,通过模拟真实医疗环境和多维评估指标训练出医疗增强推理模型Baichuan-M2,在性能上超越了多数开源和闭源模型,显著提升了大型语言模型在实际临床决策中的应用效果。