arXiv ID:
2601.18753
HalluGuard:揭秘大语言模型中数据驱动与推理驱动的幻觉 / HalluGuard: Demystifying Data-Driven and Reasoning-Driven Hallucinations in LLMs
1️⃣ 一句话总结
这篇论文提出了一个统一的理论框架来分解大语言模型的幻觉风险,并基于此开发了一个名为HalluGuard的检测工具,能够同时识别由数据问题和推理过程导致的幻觉,在多种测试中表现优异。