📄 论文总结
基于工具增强的视觉感知强化学习 / Reinforced Visual Perception with Tools
1️⃣ 一句话总结
本研究提出一种基于强化学习的视觉工具增强方法,通过训练多模态大模型自主调用四种视觉工具,在多个视觉推理基准测试中显著超越传统监督学习方法,有效提升了模型的视觉感知与推理能力。
请先 登录 后再提交论文
基于工具增强的视觉感知强化学习 / Reinforced Visual Perception with Tools
本研究提出一种基于强化学习的视觉工具增强方法,通过训练多模态大模型自主调用四种视觉工具,在多个视觉推理基准测试中显著超越传统监督学习方法,有效提升了模型的视觉感知与推理能力。
VerlTool:面向使用工具的整体性智能体强化学习 / VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use
这篇论文提出了一个名为VerlTool的统一模块化框架,解决了现有工具增强型强化学习系统存在的代码分散、执行效率低和跨领域扩展难的问题,通过标准化工具管理、异步执行加速和模块化设计,在多个任务领域实现了高效且可扩展的智能体训练。
LLaVA-Critic-R1:你的评价模型其实是一个强大的策略模型 / LLaVA-Critic-R1: Your Critic Model is Secretly a Strong Policy Model
这篇论文挑战了传统观念,通过将评价模型的数据重新组织并用于强化学习训练,开发出一个既能评价又能生成内容的统一视觉语言模型,在多项视觉推理任务中表现优异,甚至超越了专门训练的策略模型。
R-4B:通过双模式退火和强化学习激励多模态大语言模型中的通用自动思考能力 / R-4B: Incentivizing General-Purpose Auto-Thinking Capability in MLLMs via Bi-Mode Annealing and Reinforce Learning
这篇论文提出了R-4B模型,它能够根据问题难度自动选择是否启动思考过程,从而在保证高性能的同时显著降低计算成本,在多个基准测试中超越了同类先进模型。
在游戏中思考:通过大型语言模型与强化学习学习游戏中的推理 / Think in Games: Learning to Reason in Games via Reinforcement Learning with Large Language Models
这篇论文提出了一种名为TiG的新方法,通过将强化学习与大型语言模型结合,让AI在游戏中学会动态决策并解释自己的每一步行动,从而高效地弥合了理论知识与应用能力之间的差距。
PVPO:基于预估值驱动的策略优化用于智能体推理 / PVPO: Pre-Estimated Value-Based Policy Optimization for Agentic Reasoning
本文提出了一种名为PVPO的新型强化学习方法,通过预采样数据和引入优势参考锚点来减少计算成本并避免策略陷入局部最优,在多个任务和模型规模上均实现了领先性能。
OneReward:基于多任务人类偏好学习的统一掩码引导图像生成 / OneReward: Unified Mask-Guided Image Generation via Multi-Task Human Preference Learning
这篇论文提出了一个名为OneReward的统一强化学习框架,它仅使用一个奖励模型就能提升模型在多种图像编辑任务(如填充、扩展、物体移除和文字渲染)中的生成质量,无需针对每个任务单独训练,并在实验中超越了多个商业和开源竞争对手。
Pref-GRPO:基于成对偏好奖励的GRPO用于稳定文本到图像强化学习 / Pref-GRPO: Pairwise Preference Reward-based GRPO for Stable Text-to-Image Reinforcement Learning
本研究提出了一种名为Pref-GRPO的新方法,通过比较图像对的偏好来替代传统评分机制,有效防止强化学习训练中的奖励作弊问题,并引入了一个更精细的评估基准UniGenBench来全面衡量文本生成图像模型的表现。
rStar2-Agent:智能推理技术报告 / rStar2-Agent: Agentic Reasoning Technical Report
这篇论文介绍了一个名为rStar2-Agent的14B参数数学推理模型,它通过创新的智能强化学习方法,在有限计算资源下实现了前沿性能,不仅能像人类一样先思考再使用编程工具解决问题,还能根据反馈自主验证和优化步骤,并在数学、科学推理等多个领域表现出强大的泛化能力。
Video-MTR:面向长视频理解的强化多轮推理框架 / Video-MTR: Reinforced Multi-Turn Reasoning for Long Video Understanding
本文提出了一种强化多轮推理框架Video-MTR,通过迭代选择关键视频片段并结合问题理解,实现了对长视频内容更精准的分析,无需依赖外部视觉语言模型即可端到端训练,在多个基准测试中取得了更高的准确性和效率。