arXiv ID:
2604.01989
arXiv 提交日期: 2026-04-02
静止的注意力保持静止:打破视觉惯性以缓解认知幻觉 / Attention at Rest Stays at Rest: Breaking Visual Inertia for Cognitive Hallucination Mitigation
1️⃣ 一句话总结
这篇论文发现多模态大语言模型中的视觉注意力存在‘惯性’问题,即注意力一旦在解码初期固定就难以动态转移,导致模型难以进行物体间关系推理而产生‘认知幻觉’,并提出了一种无需训练的方法来打破这种惯性,有效缓解了此类幻觉。