arXiv ID:
2602.01778
arXiv 提交日期: 2026-02-02
数据分布至关重要:从数据中心的视角看大语言模型的上下文压缩 / Data Distribution Matters: A Data-Centric Perspective on Context Compression for Large Language Model
1️⃣ 一句话总结
这篇论文首次从数据本身的角度研究发现,输入数据的复杂程度以及模型内部知识的不匹配,是影响大语言模型压缩长文本效率的关键因素,并据此提出了优化压缩效果的实用建议。