← 返回列表

菜单

🤖 系统
📄 Abstract - Thinking Augmented Pre-training: Enhancing Language Model Data Efficiency via Thinking Trajectories
正在获取摘要...
顶级标签: llm
详细标签: data efficiency thinking trajectories reasoning enhancement pre-training optimization dynamic computation allocation 或 搜索:

📄 论文总结

思考增强预训练:通过思维轨迹增强提升语言模型数据效率

Thinking Augmented Pre-training: Enhancing Language Model Data Efficiency via Thinking Trajectories


1️⃣ 一句话总结

本文提出思考增强预训练(TPT)方法,通过为现有文本数据自动生成思维轨迹来显著提升大型语言模型的预训练数据效率,在数学推理、代码生成和通用知识任务上实现3倍数据效率提升。


2️⃣ 论文创新点

1. 思考增强预训练(TPT)

2. 动态训练计算分配

3. 中期训练增强策略


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF