🤖 系统
12-04 15:11
C$^2$DLM:因果概念引导的扩散大语言模型 / C$^2$DLM: Causal Concept-Guided Diffusion Large Language Models
1️⃣ 一句话总结
这篇论文提出了一种新的扩散大语言模型,通过引入概念级的因果图来指导模型学习概念间的因果关系,从而显著提升了模型的推理能力和训练效率。
请先 登录 后再提交论文
C$^2$DLM:因果概念引导的扩散大语言模型 / C$^2$DLM: Causal Concept-Guided Diffusion Large Language Models
这篇论文提出了一种新的扩散大语言模型,通过引入概念级的因果图来指导模型学习概念间的因果关系,从而显著提升了模型的推理能力和训练效率。
离散扩散模型的漏洞规避:确定性绕过采样壁垒 / Loopholing Discrete Diffusion: Deterministic Bypass of the Sampling Wall
这篇论文提出了一种名为‘漏洞规避’的新方法,通过在离散扩散模型中引入确定性潜变量路径来保留分布信息,从而显著提升了文本生成的质量和连贯性,并在推理任务中取得了更好的表现。
基于预算感知的测试时缩放:通过判别性验证实现 / Budget-aware Test-time Scaling via Discriminative Verification
这篇论文提出了一种结合判别性验证和自一致性的混合方法,在固定计算预算下显著提升大语言模型的推理性能,比现有生成式验证更高效且准确。
面向扩散大语言模型的强化学习框架革新 / Revolutionizing Reinforcement Learning Framework for Diffusion Large Language Models
这篇论文提出了一个名为TraceRL的强化学习框架,通过引入轨迹感知训练和扩散价值模型,显著提升了扩散语言模型在数学推理和代码生成等复杂任务上的性能,并发布了开源工具以支持实际应用。