🤖 系统
11-30 17:41
📄 论文总结
大语言模型也会得'脑退化'! / LLMs Can Get "Brain Rot"!
1️⃣ 一句话总结
这项研究证实,持续用低质量的网络文本训练大语言模型会导致其推理能力、长文本理解、安全性等多方面认知功能显著下降,且这种损害难以通过后续优化完全恢复,提醒我们应将数据质量视为模型训练期的安全问题。
请先 登录 后再提交论文
大语言模型也会得'脑退化'! / LLMs Can Get "Brain Rot"!
这项研究证实,持续用低质量的网络文本训练大语言模型会导致其推理能力、长文本理解、安全性等多方面认知功能显著下降,且这种损害难以通过后续优化完全恢复,提醒我们应将数据质量视为模型训练期的安全问题。
信任蓝图:用于端到端透明度和治理的AI系统卡 / Blueprints of Trust: AI System Cards for End to End Transparency and Governance
这篇论文提出了一种名为'危险感知系统卡'的新框架,通过整合安全标识和动态记录来提升AI系统的透明度和问责制,帮助开发者和相关方更好地管理AI系统的全生命周期安全。
面向可信度的上下文工程:混合与不当上下文下的Rescorla-Wagner引导 / Context Engineering for Trustworthiness: Rescorla Wagner Steering Under Mixed and Inappropriate Contexts
这项研究揭示了大型语言模型在处理混合上下文时容易受到少量不当内容影响的脆弱性,并提出了一种基于神经科学模型的微调方法,能有效引导模型忽略有害信息,显著提升回答质量和安全性。