arXiv ID:
2603.05168
arXiv 提交日期: 2026-03-05
稀疏比特网:1.58比特大语言模型天然适用于半结构化稀疏化 / Sparse-BitNet: 1.58-bit LLMs are Naturally Friendly to Semi-Structured Sparsity
1️⃣ 一句话总结
这篇论文发现,将大语言模型压缩到极低的1.58比特后,它们反而能更好地承受另一种名为‘半结构化稀疏’的压缩技术,两者结合能显著提升模型运行速度且性能损失更小。