arXiv ID:
2604.20079
arXiv 提交日期: 2026-04-22
关于扩散语言模型在编程基准测试中的量化鲁棒性研究 / On the Quantization Robustness of Diffusion Language Models in Coding Benchmarks
1️⃣ 一句话总结
本文研究了扩散语言模型(如CoDA)在低比特量化时的表现,发现其比传统自回归模型(如Qwen3-1.7B)更能抵抗精度损失,在编程任务上能以更小的性能下降实现更高效的模型部署。