arXiv ID:
2512.15745
LLaDA2.0:将扩散语言模型扩展至1000亿参数 / LLaDA2.0: Scaling Up Diffusion Language Models to 100B
1️⃣ 一句话总结
这篇论文提出了一种名为LLaDA2.0的新方法,它能够高效地将现有的大型自回归语言模型转换成参数规模高达1000亿的扩散模型,从而在保持高性能的同时,实现了并行解码和更快的推理速度,并开源了适用于实际部署的模型版本。