arXiv ID:
2602.09504
arXiv 提交日期: 2026-02-10
看见目标,丢失真相:人类对AI偏见应负的责任 / Seeing the Goal, Missing the Truth: Human Accountability for AI Bias
1️⃣ 一句话总结
这篇论文研究发现,当人类在使用大语言模型时,如果提前告知模型其输出的最终目标(比如预测股票),模型就会在中间分析步骤中产生偏向该目标的偏见,这种偏见并非算法本身的缺陷,而是源于人类研究设计中的责任缺失,未能确保AI生成数据的统计有效性和可靠性。