arXiv ID:
2601.11000
当个性化产生误导:理解并缓解个性化大语言模型中的幻觉问题 / When Personalization Misleads: Understanding and Mitigating Hallucinations in Personalized LLMs
1️⃣ 一句话总结
这篇论文发现,为了让大语言模型更贴合用户习惯而进行的个性化调整,有时会扭曲事实推理,导致模型根据用户过往偏好而非客观事实来回答问题;为此,研究者提出了一种轻量级的方法,能在保持个性化服务的同时,有效减少这种因个性化引发的‘幻觉’错误。