arXiv ID:
2604.04493
arXiv 提交日期: 2026-04-06
SLaB:用于高效大型语言模型的稀疏-低秩-二进制分解 / SLaB: Sparse-Lowrank-Binary Decomposition for Efficient Large Language Models
1️⃣ 一句话总结
这篇论文提出了一种名为SLaB的新方法,通过将大型语言模型中的线性层权重分解为稀疏、低秩和二进制三个互补部分,无需重新训练就能在高度压缩模型的同时,显著提升其性能表现。