🤖 系统
11-30 17:44
📄 论文总结
离散扩散模型的漏洞规避:确定性绕过采样壁垒 / Loopholing Discrete Diffusion: Deterministic Bypass of the Sampling Wall
1️⃣ 一句话总结
这篇论文提出了一种名为‘漏洞规避’的新方法,通过在离散扩散模型中引入确定性潜变量路径来保留分布信息,从而显著提升了文本生成的质量和连贯性,并在推理任务中取得了更好的表现。
请先 登录 后再提交论文
离散扩散模型的漏洞规避:确定性绕过采样壁垒 / Loopholing Discrete Diffusion: Deterministic Bypass of the Sampling Wall
这篇论文提出了一种名为‘漏洞规避’的新方法,通过在离散扩散模型中引入确定性潜变量路径来保留分布信息,从而显著提升了文本生成的质量和连贯性,并在推理任务中取得了更好的表现。
联合增强语言模型生成内容的多样性与质量 / Jointly Reinforcing Diversity and Quality in Language Model Generations
这篇论文提出了一个名为DARLING的强化学习框架,通过同时优化回答质量和语义多样性,解决了大语言模型在训练后常常牺牲多样性来提升准确性的问题,从而在创意写作和数学解题等任务中生成既优质又新颖的内容。