arXiv ID:
2511.21631
Qwen3-VL技术报告 / Qwen3-VL Technical Report
1️⃣ 一句话总结
这篇论文介绍了通义千问系列目前最强的多模态大模型Qwen3-VL,它在文本理解、长上下文处理以及图像视频推理方面都表现卓越,并提供了从轻量到超大规模的不同版本,旨在成为现实应用中多模态智能的核心引擎。
Qwen3-VL技术报告 / Qwen3-VL Technical Report
这篇论文介绍了通义千问系列目前最强的多模态大模型Qwen3-VL,它在文本理解、长上下文处理以及图像视频推理方面都表现卓越,并提供了从轻量到超大规模的不同版本,旨在成为现实应用中多模态智能的核心引擎。
Monet:超越图像和语言的潜在视觉空间推理 / Monet: Reasoning in Latent Visual Space Beyond Images and Language
这篇论文提出了一个名为Monet的训练框架,通过让多模态大语言模型直接在潜在视觉空间中生成连续的视觉思维嵌入来进行推理,并针对训练挑战设计了专门的优化方法,显著提升了模型在真实世界感知和抽象视觉推理任务上的性能。
多智能体系统中的潜在协作 / Latent Collaboration in Multi-Agent Systems
这篇论文提出了一个名为LatentMAS的无训练框架,让多个AI智能体直接在内部表示空间中进行协作,相比传统基于文本交互的方法,不仅显著提升了推理准确率和效率,还大幅降低了计算和通信开销。
ROOT:一种用于神经网络训练的鲁棒正交化优化器 / ROOT: Robust Orthogonalized Optimizer for Neural Network Training
这篇论文提出了一种名为ROOT的新型优化器,它通过自适应正交化和抗噪机制,有效解决了大模型训练中的不稳定问题,在噪声环境下比现有优化器收敛更快、性能更好。
对抗性混淆攻击:扰乱多模态大语言模型 / Adversarial Confusion Attack: Disrupting Multimodal Large Language Models
这篇论文提出了一种名为‘对抗性混淆攻击’的新威胁方法,它通过向图像中添加微小的、人眼难以察觉的干扰,就能让多模态大语言模型(如GPT-5.1)产生混乱或自信的错误回答,从而破坏AI代理的可靠运行。
软自适应策略优化 / Soft Adaptive Policy Optimization
这项研究提出了一种名为SAPO的新方法,通过智能调节学习信号来提升大语言模型训练的稳定性和效率,相比现有技术能更灵活地平衡学习效果与稳定性。
类比推理的奇特案例:探究大语言模型中的类比推理能力 / The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language Models
这篇论文研究发现,大语言模型虽然能在一定程度上编码和运用高级关系概念进行类比推理,但其能力仍有限,尤其在将已知关系应用到新情境时存在困难,这与人类的认知方式既有相似之处也存在明显差距。
REFLEX:通过将真实性解构为风格与实质,实现自我优化的可解释事实核查 / REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance
本文提出了一种名为REFLEX的新型事实核查方法,它通过将‘真实性’分解为表达风格和事实实质,并利用大模型内部知识进行自我优化,从而在无需大量依赖外部知识库的情况下,实现了更准确、可解释且高效的事实核查。
SSA:通过特征空间中对齐完整与稀疏注意力输出的稀疏稀疏注意力 / SSA: Sparse Sparse Attention by Aligning Full and Sparse Attention Outputs in Feature Space
这篇论文提出了一种名为SSA的新型训练框架,通过让稀疏注意力在每一层都与完整注意力的输出对齐,既保持了梯度更新到所有词元,又显著提升了模型在稀疏计算下的性能,同时支持灵活的计算与性能权衡。
ThreadWeaver:面向语言模型高效并行推理的自适应线程技术 / ThreadWeaver: Adaptive Threading for Efficient Parallel Reasoning in Language Models
这篇论文提出了一种名为ThreadWeaver的新方法,它能让大语言模型在解决复杂问题时像多线程处理任务一样并行思考,从而在保持与顶尖顺序推理模型相同准确率的同时,显著提升了推理速度,且无需修改现有推理引擎。
请先 登录 后再提交论文