arXiv ID:
2601.06788
arXiv 提交日期: 2026-01-11
大语言模型微调中的人工纠缠 / Artificial Entanglement in the Fine-Tuning of Large Language Models
1️⃣ 一句话总结
这篇论文从量子信息视角出发,将大语言模型的高效微调方法(如LoRA)中的参数更新结构类比为量子纠缠,发现其内部参数和外部注意力分别遵循不同的“纠缠”规律,并借用黑洞物理的“无毛定理”来解释为何仅更新少量参数就能有效适配新任务。