arXiv ID:
2603.15518
arXiv 提交日期: 2026-03-16
超越协方差陷阱:解锁大语言模型同主题知识编辑中的泛化能力 / Beyond the Covariance Trap: Unlocking Generalization in Same-Subject Knowledge Editing for Large Language Models
1️⃣ 一句话总结
这篇论文发现并解决了一个大语言模型知识编辑的关键问题:模型在编辑后能记住新知识,但在用户指令引导下却会忘记;作者通过提出一种名为RoSE的新方法,有效提升了模型遵循指令时的知识回忆稳定性。