📄 论文总结
MobileVLA-R1:强化移动机器人的视觉-语言-动作整合 / MobileVLA-R1: Reinforcing Vision-Language-Action for Mobile Robots
1️⃣ 一句话总结
这篇论文提出了一种名为MobileVLA-R1的新方法,通过结合思维链数据和强化学习,有效提升了四足机器人根据语言指令执行连续动作的稳定性和泛化能力。
请先 登录 后再提交论文
MobileVLA-R1:强化移动机器人的视觉-语言-动作整合 / MobileVLA-R1: Reinforcing Vision-Language-Action for Mobile Robots
这篇论文提出了一种名为MobileVLA-R1的新方法,通过结合思维链数据和强化学习,有效提升了四足机器人根据语言指令执行连续动作的稳定性和泛化能力。
提升乒乓球分析:一种用于三维轨迹与旋转估计的鲁棒性实际应用 / Uplifting Table Tennis: A Robust, Real-World Application for 3D Trajectory and Spin Estimation
本研究提出了一种新的两阶段方法,通过结合真实世界视频的二维检测与物理模拟数据的三维重建,实现了对乒乓球轨迹和旋转的精确、鲁棒的三维分析,解决了现有方法在真实场景中泛化能力不足的问题。
通过预测强化行动策略 / Reinforcing Action Policies by Prophesying
这篇论文提出了一种名为ProphRL的新方法,通过构建一个能够预测动作结果的视频模型和专门的强化学习技术,有效提升了视觉-语言-动作策略的适应性和成功率,无需依赖昂贵的真实机器人实验。
RynnVLA-002:统一的视觉-语言-动作与世界模型 / RynnVLA-002: A Unified Vision-Language-Action and World Model
这篇论文提出了一个将视觉-语言-动作模型与世界模型相结合的统一框架,通过让两个模型相互增强,显著提升了机器人在模拟和真实环境中的任务成功率。
VLA-4D:将四维感知融入视觉-语言-动作模型以实现时空连贯的机器人操作 / VLA-4D: Embedding 4D Awareness into Vision-Language-Action Models for SpatioTemporally Coherent Robotic Manipulation
这项研究提出了一种新型视觉-语言-动作模型VLA-4D,通过引入时间维度与空间位置融合的四维感知机制,使机器人能够执行更流畅连贯的时空动作规划与操作。
MiMo-Embodied:跨具身基础模型技术报告 / MiMo-Embodied: X-Embodied Foundation Model Technical Report
这篇论文开源了首个跨具身基础模型MiMo-Embodied,它通过多阶段学习和优化训练方法,在自动驾驶和具身AI两大领域同时实现了顶尖性能,并证明了这两个领域能够相互促进和提升。
Mantis:一种具有解耦视觉预见能力的多功能视觉-语言-动作模型 / Mantis: A Versatile Vision-Language-Action Model with Disentangled Visual Foresight
这篇论文提出了一个名为Mantis的新型视觉-语言-动作模型,它通过解耦视觉预见模块来减轻主干网络的负担,从而在保持强大语言理解和推理能力的同时,显著提升了机器人任务执行的准确性和泛化能力。
自参考策略优化:面向视觉-语言-动作模型 / SRPO: Self-Referential Policy Optimization for Vision-Language-Action Models
这项研究提出了一种自参考策略优化方法,通过利用模型自身成功轨迹作为参考来为失败尝试打分,无需额外演示或人工设计奖励,显著提升了机器人操作任务的训练效率和性能。
PhysX-Anything:从单张图像生成仿真就绪的物理3D资产 / PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image
这项研究开发了一个能从单张真实世界图片直接生成具备精确几何结构、关节活动和物理属性的3D模型框架,解决了现有3D生成技术忽略物理特性的问题,让生成的模型能直接用于机器人仿真训练。
WMPO:基于世界模型的视觉-语言-动作模型策略优化 / WMPO: World Model-based Policy Optimization for Vision-Language-Action Models
这项研究提出了一种名为WMPO的新方法,让机器人能够通过内部模拟学习改进自身动作,无需在真实环境中反复试错,从而更高效地掌握复杂操作技能并具备自我纠错能力。