Jina-VLM:小型多语言视觉语言模型 / Jina-VLM: Small Multilingual Vision Language Model
1️⃣ 一句话总结
这篇论文提出了一个名为Jina-VLM的小型多语言视觉语言模型,它在保持高效处理任意分辨率图像的同时,在多项视觉问答评测中取得了领先的多语言性能,并且模型代码和权重已开源。
请先 登录 后再提交论文
Jina-VLM:小型多语言视觉语言模型 / Jina-VLM: Small Multilingual Vision Language Model
这篇论文提出了一个名为Jina-VLM的小型多语言视觉语言模型,它在保持高效处理任意分辨率图像的同时,在多项视觉问答评测中取得了领先的多语言性能,并且模型代码和权重已开源。
Qwen3-VL技术报告 / Qwen3-VL Technical Report
这篇论文介绍了通义千问系列目前最强的多模态大模型Qwen3-VL,它在文本理解、长上下文处理以及图像视频推理方面都表现卓越,并提供了从轻量到超大规模的不同版本,旨在成为现实应用中多模态智能的核心引擎。
OpenREAD:基于LLM作为评判者的强化开放式推理端到端自动驾驶 / OpenREAD: Reinforced Open-Ended Reasoning for End-to-End Autonomous Driving with LLM-as-Critic
这篇论文提出了一个名为OpenREAD的端到端自动驾驶框架,它通过使用大型语言模型作为评判者来量化开放式问题的推理质量,并利用强化学习对整个系统进行联合优化,从而在推理和规划任务上取得了领先的性能。
CauSight:学习超感知以实现视觉因果发现 / CauSight: Learning to Supersense for Visual Causal Discovery
这篇论文提出了一个名为CauSight的新模型,它能够像人一样从图片中识别出事物之间的因果关系,而不仅仅是看到它们,并通过一个包含3.2万张带标注图片的新数据集和一套特殊的训练方法,在视觉因果发现任务上显著超越了GPT-4等现有模型。
G²VLM:基于几何基础的视觉语言模型,统一3D重建与空间推理 / G$^2$VLM: Geometry Grounded Vision Language Model with Unified 3D Reconstruction and Spatial Reasoning
这篇论文提出了一个名为G²VLM的视觉语言模型,它通过整合3D重建和空间理解能力,显著提升了AI在空间推理任务上的表现,无需依赖大量难以获取的3D标注数据即可实现高效学习。
视频作为答案:利用联合GRPO预测并生成下一视频事件 / Video-as-Answer: Predict and Generate Next Video Event with Joint-GRPO
这篇论文提出了一种新方法,能够根据视频和问题直接生成展示下一事件的视频答案,而不是文字描述,使得教学和创意探索更加直观。
TimeViper:一种用于高效长视频理解的混合Mamba-Transformer视觉语言模型 / TimeViper: A Hybrid Mamba-Transformer Vision-Language Model for Efficient Long Video Understanding
这篇论文提出了一个名为TimeViper的混合模型,它结合了Mamba和Transformer的优势,通过创新的信息压缩技术高效处理长达一小时的视频,在保持高性能的同时大幅提升了长视频理解能力。
基于指令引导的胸部X光病灶分割及自动生成的大规模数据集 / Instruction-Guided Lesion Segmentation for Chest X-rays with Automatically Generated Large-Scale Dataset
这项研究提出了一个名为指令引导病灶分割的新方法,通过自动构建的大规模数据集和训练模型,使医生仅需简单指令即可在胸部X光片中精确分割多种病灶,并生成文字解释,大大提升了医疗影像分析的效率和实用性。
PhysX-Anything:从单张图像生成仿真就绪的物理3D资产 / PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image
这项研究开发了一个能从单张真实世界图片直接生成具备精确几何结构、关节活动和物理属性的3D模型框架,解决了现有3D生成技术忽略物理特性的问题,让生成的模型能直接用于机器人仿真训练。
PaddleOCR-VL:通过0.9B超紧凑视觉语言模型提升多语言文档解析能力 / PaddleOCR-VL: Boosting Multilingual Document Parsing via a 0.9B Ultra-Compact Vision-Language Model
这篇论文提出了一种名为PaddleOCR-VL的高效文档解析模型,其核心是一个仅0.9B参数的紧凑视觉语言模型,能准确识别109种语言中的文本、表格、公式和图表等复杂元素,并在性能和速度上超越现有方案,适合实际部署。