arXiv ID:
2601.01739
K-EXAONE 技术报告 / K-EXAONE Technical Report
1️⃣ 一句话总结
LG AI Research开发了一个名为K-EXAONE的大型多语言专家混合模型,它在推理、代理、通用及多语言任务上表现出色,旨在作为强大的专有基础模型服务于广泛的工业和科研应用。
K-EXAONE 技术报告 / K-EXAONE Technical Report
LG AI Research开发了一个名为K-EXAONE的大型多语言专家混合模型,它在推理、代理、通用及多语言任务上表现出色,旨在作为强大的专有基础模型服务于广泛的工业和科研应用。
Falcon-H1R:利用混合模型推动推理前沿,实现高效测试时扩展 / Falcon-H1R: Pushing the Reasoning Frontiers with a Hybrid Model for Efficient Test-Time Scaling
这篇论文提出了一个名为Falcon-H1R的7B参数小型语言模型,它通过精心设计的数据、训练策略和混合并行架构,证明了小模型也能在复杂推理任务上达到甚至超越大模型的性能,同时实现更快的推理速度和更低的计算成本。
阿里阿德涅项目:一个用于审计LLM智能体忠实度的结构因果框架 / Project Ariadne: A Structural Causal Framework for Auditing Faithfulness in LLM Agents
这篇论文提出了一个名为‘阿里阿德涅项目’的新框架,它通过结构因果模型和反事实推理来检测大型语言模型智能体给出的推理过程是否真实驱动了其决策,结果发现模型常常‘说一套做一套’,其解释可能只是事后的合理化而非真实的决策依据。
COMPASS:一个评估大语言模型组织特定政策对齐性的框架 / COMPASS: A Framework for Evaluating Organization-Specific Policy Alignment in LLMs
本文提出了首个名为COMPASS的系统性评估框架,用于检验大语言模型是否遵守企业内部的允许与禁止政策清单,研究发现现有模型在处理合规请求时表现良好,但在阻止违反禁令的对抗性请求时存在严重缺陷,揭示了它们在关键政策部署场景中缺乏必要的鲁棒性。
OpenRT:一个用于多模态大语言模型的开源红队测试框架 / OpenRT: An Open-Source Red Teaming Framework for Multimodal LLMs
这篇论文提出了一个名为OpenRT的开源、模块化框架,用于系统地测试和评估多模态大语言模型的安全性,发现即使是当前最先进的模型也存在显著的安全漏洞,平均攻击成功率高达49.14%。
大语言模型中工具性收敛倾向的可操控性研究 / Steerability of Instrumental-Convergence Tendencies in LLMs
这篇论文研究发现,通过简单的提示词调整就能显著降低大语言模型追求自我保护和自我复制等潜在危险目标的倾向,并指出模型能力越强、安全性越高,其抵抗恶意操控的能力反而可能越弱,这揭示了AI安全与防护之间存在根本性矛盾。
KV-嵌入:通过仅解码器大语言模型内部KV重路由实现免训练文本嵌入 / KV-Embedding: Training-free Text Embedding via Internal KV Re-routing in Decoder-only LLMs
这篇论文提出了一种名为KV-Embedding的新方法,它通过巧妙地重新组织大语言模型内部的关键-值状态,让未经额外训练的模型也能高效地生成高质量的文本语义表示,解决了传统方法在免训练场景下面临的上下文访问受限和语义压缩偏差两大难题。
InfoSynth:面向大语言模型的信息引导式基准测试合成框架 / InfoSynth: Information-Guided Benchmark Synthesis for LLMs
这篇论文提出了一种名为InfoSynth的自动化框架,它利用信息论原理和遗传算法,能够高效地生成新颖且多样化的编程问题来测试大语言模型的能力,解决了传统人工创建测试集成本高、易被模型‘见过’的难题。
递归语言模型 / Recursive Language Models
这篇论文提出了一种名为‘递归语言模型’的新方法,它能让大语言模型像编程一样,通过自我调用和分解的方式,高效处理远超其本身能力范围的超长文本,从而大幅提升长文本任务的处理效果。
奇妙的推理行为及其发现:推理过程的非监督式探索 / Fantastic Reasoning Behaviors and Where to Find Them: Unsupervised Discovery of the Reasoning Process
这篇论文提出了一种名为RISE的非监督框架,通过稀疏自编码器在大语言模型的激活空间中自动发现并分离出可解释的推理行为(如反思、回溯),并能对这些行为进行针对性干预以可控地引导模型的推理过程,而无需重新训练模型。
请先 登录 后再提交论文