arXiv ID:
2512.03405
ViDiC:视频差异描述 / ViDiC: Video Difference Captioning
1️⃣ 一句话总结
这篇论文提出了一个名为ViDiC的新任务和对应数据集,旨在让多模态大语言模型能够精细地描述视频之间的异同,并发现现有模型在这方面的能力仍有显著不足。
ViDiC:视频差异描述 / ViDiC: Video Difference Captioning
这篇论文提出了一个名为ViDiC的新任务和对应数据集,旨在让多模态大语言模型能够精细地描述视频之间的异同,并发现现有模型在这方面的能力仍有显著不足。
使用VideoScience-Bench对视频生成模型的科学理解与推理能力进行基准测试 / Benchmarking Scientific Understanding and Reasoning for Video Generation using VideoScience-Bench
这篇论文提出了首个专门用于评估视频生成模型是否具备本科水平的科学理解与推理能力的基准测试VideoScience-Bench,它通过涵盖物理和化学的200个复杂科学场景提示,来检验模型生成内容是否符合真实世界的科学规律。
RULER-Bench:探究面向视觉基础智能的下一代视频生成模型的规则推理能力 / RULER-Bench: Probing Rule-based Reasoning Abilities of Next-level Video Generation Models for Vision Foundation Intelligence
这篇论文提出了一个名为RULER-Bench的新基准测试,专门用于系统评估视频生成模型是否能够理解和遵循物理、逻辑等各类规则进行推理,结果发现当前最先进的模型在此方面仍有很大不足,为推动视频模型向具备更强推理能力的视觉基础智能发展提供了重要工具和见解。
WorldMM:用于长视频推理的动态多模态记忆代理 / WorldMM: Dynamic Multimodal Memory Agent for Long Video Reasoning
这篇论文提出了一个名为WorldMM的新型智能系统,它通过构建并灵活调用包含文字、视觉和概念在内的多种记忆,有效解决了现有视频AI模型难以理解和回答长达数小时视频内容的问题,在多个测试中表现显著优于之前最好的方法。
UnicEdit-10M:通过统一验证打破规模与质量壁垒,赋能推理增强编辑的数据集与基准 / UnicEdit-10M: A Dataset and Benchmark Breaking the Scale-Quality Barrier via Unified Verification for Reasoning-Enriched Edits
这篇论文提出了一个名为UnicEdit-10M的大规模高质量图像编辑数据集,以及一个能精细评估模型在空间和知识推理方面能力的综合基准UnicBench,旨在解决开源模型因缺乏优质数据而落后于闭源模型的问题。
PAI-Bench:面向物理人工智能的综合基准测试 / PAI-Bench: A Comprehensive Benchmark For Physical AI
这篇论文提出了一个名为PAI-Bench的综合基准测试,用于系统评估当前多模态大模型和视频生成模型在理解和预测真实世界物理规律方面的能力,结果发现这些模型在物理连贯性和因果推理上仍存在明显不足。
我们距离真正有用的深度研究智能体还有多远? / How Far Are We from Genuinely Useful Deep Research Agents?
这篇论文通过建立一个包含结构化检查项的新评估标准和对主流研究智能体生成报告的失败模式分析,发现当前自动研究智能体的主要瓶颈不在于理解任务,而在于整合证据、验证事实和制定稳健的推理计划。
InnoGym:评估AI智能体创新潜力的基准测试 / InnoGym: Benchmarking the Innovation Potential of AI Agents
这篇论文提出了首个专门评估AI智能体创新潜力的基准测试框架InnoGym,它通过‘性能增益’和‘方法新颖性’两个指标来衡量智能体是否不仅能给出正确答案,还能提出原创性的解决方案,揭示了当前AI在创造性与有效性之间存在差距。
Envision:面向因果世界过程洞察的统一理解与生成基准 / Envision: Benchmarking Unified Understanding & Generation for Causal World Process Insights
这篇论文提出了一个名为Envision的新基准,用于评估AI模型在理解和生成随时间展开的、符合因果关系的多图像序列方面的能力,发现现有模型在动态世界过程建模和时空一致性方面仍面临核心挑战。
StreamGaze:流媒体视频中的视线引导时序推理与前瞻性理解 / StreamGaze: Gaze-Guided Temporal Reasoning and Proactive Understanding in Streaming Videos
这篇论文提出了首个名为StreamGaze的基准测试,用于评估多模态大模型如何利用实时视线信号来理解动态视频内容、推断用户意图并进行前瞻性预测,结果发现现有模型在这些方面与人类能力存在显著差距。
请先 登录 后再提交论文