🤖 系统
11-30 17:39
📄 论文总结
大型语言模型并非真正了解自己的未知 / Large Language Models Do NOT Really Know What They Don't Know
1️⃣ 一句话总结
这项研究发现大型语言模型无法可靠区分事实与虚构内容,因为其内部处理机制仅反映知识回忆模式而非真实性判断,导致模型无法识别自身产生的错误信息。
请先 登录 后再提交论文
大型语言模型并非真正了解自己的未知 / Large Language Models Do NOT Really Know What They Don't Know
这项研究发现大型语言模型无法可靠区分事实与虚构内容,因为其内部处理机制仅反映知识回忆模式而非真实性判断,导致模型无法识别自身产生的错误信息。