arXiv ID:
2603.17484
学习何时关注:长上下文大语言模型的条件化记忆访问机制 / Learning When to Attend: Conditional Memory Access for Long-Context LLMs
1️⃣ 一句话总结
这篇论文提出了一种名为L2A的新方法,它让大语言模型能够智能地判断何时需要对长文本进行全局关注,从而在显著降低计算成本的同时,将模型的有效上下文长度从3.2万扩展到12.8万词元,并提升了推理效率。