arXiv ID:
2511.23404
LFM2技术报告 / LFM2 Technical Report
1️⃣ 一句话总结
这篇论文提出了一个名为LFM2的系列模型,它专门为在手机等边缘设备上高效运行而设计,通过创新的架构和训练方法,在保持强大任务处理能力的同时,实现了比同类模型更快的推理速度和更低的内存占用。
LFM2技术报告 / LFM2 Technical Report
这篇论文提出了一个名为LFM2的系列模型,它专门为在手机等边缘设备上高效运行而设计,通过创新的架构和训练方法,在保持强大任务处理能力的同时,实现了比同类模型更快的推理速度和更低的内存占用。
每个词元都重要:在大型语言模型中实现1600万超长上下文的泛化 / Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models
这篇论文提出了一种名为‘分层稀疏注意力’的新方法,并将其集成到模型中,成功让一个80亿参数的AI模型能够高效处理和记住长达1600万个词的超长文本信息,在多项测试中表现出色。
ORION:教导语言模型以思维语言进行高效推理 / ORION: Teaching Language Models to Reason Efficiently in the Language of Thought
这篇论文提出了一个名为ORION的新框架,它通过训练模型使用一种类似人类‘思维语言’的压缩、结构化符号进行推理,从而在保持高准确率的同时,大幅减少了计算所需的步骤和成本,实现了更高效、更快速的AI推理。
开放智能的经济学:追踪模型生态系统中的权力与参与 / Economies of Open Intelligence: Tracing Power & Participation in the Model Ecosystem
这篇论文通过分析Hugging Face平台超过85万个AI模型的下载数据和元数据,揭示了开放模型经济中权力格局的重大转变:美国科技巨头的统治地位正被独立开发者、社区组织以及以DeepSeek和Qwen为代表的中国产业力量所削弱,同时模型规模、多模态能力等技术特性快速演进,但数据透明度却在下降。
DeepSeekMath-V2:迈向可自我验证的数学推理 / DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning
这篇论文提出了一个名为DeepSeekMath-V2的新模型,它通过让AI自己检查和验证推理过程来解决数学问题,而不是只追求最终答案正确,从而在需要严格逻辑推导的数学竞赛中取得了顶尖成绩。
聚焦思维链:通过结构化输入信息实现高效大语言模型推理 / Focused Chain-of-Thought: Efficient LLM Reasoning via Structured Input Information
这篇论文提出了一种无需训练、基于输入信息结构化的‘聚焦思维链’方法,它能将问题中的关键信息提取并组织成简洁的上下文,从而引导大语言模型进行更专注、更高效的推理,在保持准确性的同时大幅减少生成的文本量。
RefineBench:通过清单评估语言模型的精炼能力 / RefineBench: Evaluating Refinement Capability of Language Models via Checklists
这篇论文提出了一个名为RefineBench的新基准测试,发现当前最先进的语言模型在没有外部指导的情况下,很难有效地自我修正错误答案,但在获得明确反馈后却能大幅改进,这揭示了模型自我精炼能力的局限性。
C$^2$DLM:因果概念引导的扩散大语言模型 / C$^2$DLM: Causal Concept-Guided Diffusion Large Language Models
这篇论文提出了一种新的扩散大语言模型,通过引入概念级的因果图来指导模型学习概念间的因果关系,从而显著提升了模型的推理能力和训练效率。
OralGPT-Omni:一个多功能牙科多模态大语言模型 / OralGPT-Omni: A Versatile Dental Multimodal Large Language Model
这篇论文提出了首个专门用于牙科领域的多模态大语言模型OralGPT-Omni,它通过模仿牙医诊断思维的数据集和训练方法,能够准确理解和分析多种牙科影像,并在权威评测中表现优异,推动了牙科人工智能的发展。
重新审视跨难度级别的泛化:这并不简单 / Revisiting Generalization Across Difficulty Levels: It's Not So Easy
这项研究发现,大型语言模型在跨越不同难度任务时的泛化能力有限,无论是用简单还是困难的数据训练,都无法在所有难度级别上取得一致性的提升,强调了训练和评估数据中难度多样性的重要性。
请先 登录 后再提交论文