arXiv ID:
2512.14666
arXiv 提交日期: 2025-12-16
EVOLVE-VLA:基于环境反馈的视觉-语言-动作模型测试时训练框架 / EVOLVE-VLA: Test-Time Training from Environment Feedback for Vision-Language-Action Models
1️⃣ 一句话总结
这篇论文提出了一个名为EVOLVE-VLA的新框架,让机器人视觉-语言-动作模型能在实际测试环境中通过与环境的互动来自主学习和改进,从而显著减少对大量人工演示数据的依赖,并提升其在陌生任务和复杂长序列任务中的适应能力。