arXiv ID:
2603.22241
arXiv 提交日期: 2026-03-23
MemDLM:内存增强的扩散语言模型训练 / MemDLM: Memory-Enhanced DLM Training
1️⃣ 一句话总结
这篇论文提出了一种名为MemDLM的新方法,通过在训练中引入一个模拟的去噪过程来减少扩散语言模型训练与推理之间的不匹配,从而让模型学得更快、更好,并且在推理时能更好地处理长文本和检索任务。