先区分,再定位:根据查询类型调整帧选择策略以实现长视频理解 / Divide, then Ground: Adapting Frame Selection to Query Types for Long-Form Video Understanding
1️⃣ 一句话总结
这篇论文提出了一种名为DIG的智能方法,它先判断用户对长视频的提问是全局性的还是局部性的,然后自动选择最高效的视频帧提取策略,从而在保证理解准确性的同时,大幅降低了计算成本。
请先 登录 后再提交论文
先区分,再定位:根据查询类型调整帧选择策略以实现长视频理解 / Divide, then Ground: Adapting Frame Selection to Query Types for Long-Form Video Understanding
这篇论文提出了一种名为DIG的智能方法,它先判断用户对长视频的提问是全局性的还是局部性的,然后自动选择最高效的视频帧提取策略,从而在保证理解准确性的同时,大幅降低了计算成本。
TV2TV:一种用于交错式语言与视频生成的统一框架 / TV2TV: A Unified Framework for Interleaved Language and Video Generation
这篇论文提出了一个名为TV2TV的新框架,它通过让AI模型在生成视频过程中穿插‘用文字思考’的步骤,来提升复杂视频的生成质量和可控性,使其能更好地理解和执行用户指令。
SeeNav-Agent:通过视觉提示和步级策略优化增强视觉语言导航 / SeeNav-Agent: Enhancing Vision-Language Navigation with Visual Prompt and Step-Level Policy Optimization
这篇论文提出了一个名为SeeNav-Agent的新框架,它通过引入双重视觉提示来减少视觉感知错误,并设计了一种步级强化微调方法,显著提升了智能体在视觉语言导航任务中的成功率和规划能力。
Splannequin:通过双重检测的溅射技术冻结单目人体模型挑战视频 / Splannequin: Freezing Monocular Mannequin-Challenge Footage with Dual-Detection Splatting
这篇论文提出了一种名为Splannequin的新方法,它通过检测和锚定动态高斯模型中‘隐藏’和‘缺陷’的两种状态,有效解决了从单角度拍摄的动态视频中合成高质量、用户可选择‘时间冻结’3D场景时出现的鬼影和模糊问题,且无需改变现有模型结构或增加额外计算开销。
4DLangVGGT:基于Transformer的4D语言-视觉几何统一模型 / 4DLangVGGT: 4D Language-Visual Geometry Grounded Transformer
这篇论文提出了一种名为4DLangVGGT的新型人工智能模型,它能够一次性理解动态三维场景的几何变化并用自然语言描述其中的物体,无需对每个新场景进行耗时优化,从而为机器人、增强现实等应用提供了更高效、通用的场景理解工具。
语义先行:通过异步潜在扩散协调语义与纹理建模 / Semantics Lead the Way: Harmonizing Semantic and Texture Modeling with Asynchronous Latent Diffusion
这篇论文提出了一种名为“语义优先扩散”的新方法,通过让AI图像生成模型先明确生成图像的整体语义结构,再基于此细化纹理细节,从而实现了更高质量、更快速且更符合人类认知过程的图像生成。
神经重制:用于结构对齐生成的相位保持扩散模型 / NeuralRemaster: Phase-Preserving Diffusion for Structure-Aligned Generation
这篇论文提出了一种新的扩散模型方法,它在生成新图像或视频时能保持原始输入的空间结构(如物体形状和位置),从而在图像重渲染、模拟器增强等需要几何一致性的任务上表现更优,且无需增加额外计算成本。
ARM-Thinker:通过智能工具使用与视觉推理增强多模态生成奖励模型 / ARM-Thinker: Reinforcing Multimodal Generative Reward Models with Agentic Tool Use and Visual Reasoning
这篇论文提出了一个名为ARM-Thinker的新型智能奖励模型,它能够自主调用外部工具来验证视觉细节和多页文档证据,从而显著提升了多模态任务中奖励判断的准确性和可解释性。
DraCo:将草稿作为思维链用于文本到图像预览与稀有概念生成 / DraCo: Draft as CoT for Text-to-Image Preview and Rare Concept Generation
这篇论文提出了一种名为DraCo的新方法,它通过先生成低分辨率草稿图像进行预览和视觉规划,再利用模型自身能力进行语义验证和选择性修正,从而显著提升了多模态大模型在文本生成图像任务中的规划准确性和生成稀有概念组合的能力。
EgoLCD:基于长上下文扩散模型的第一人称视角视频生成 / EgoLCD: Egocentric Video Generation with Long Context Diffusion
这篇论文提出了一种名为EgoLCD的新方法,通过巧妙地管理长期和短期记忆来生成连贯、高质量的第一人称视角长视频,有效解决了现有模型在生成过程中容易出现的画面内容漂移和遗忘问题。