arXiv ID:
2604.25639
arXiv 提交日期: 2026-04-28
大型语言模型正在削弱科学理解:一项实验研究 / Large language models eroding science understanding: an experimental study
1️⃣ 一句话总结
本研究通过实验证明,大型语言模型(如ChatGPT)容易被少量非主流科学内容“带偏”,生成看似流畅但实际违背科学共识的错误回答,且非专业人士很难识别,这警示我们不能用AI代替科学专家,否则可能加剧公众对科学的误解和虚假信息的传播。