arXiv ID:
2602.13595
arXiv 提交日期: 2026-02-14
量化陷阱:打破多步推理中的线性缩放定律 / The Quantization Trap: Breaking Linear Scaling Laws in Multi-Hop Reasoning
1️⃣ 一句话总结
这篇论文发现,在处理需要多步推理的复杂任务时,简单地降低AI模型的计算精度(如从16位降到8位或4位)不仅不会节省能耗,反而会因为硬件转换开销和去量化延迟成为瓶颈,导致总能耗增加和推理准确性下降,从而打破了业界普遍认为的‘精度越低、效率越高’的线性缩放定律。