← 返回列表

菜单

🤖 系统
📄 Abstract - Context-Aware Scaling Laws Framework: Jointly Modeling Downstream Task Performance with Training Compute and Context Length
正在获取摘要...
顶级标签: llm
详细标签: scaling laws context length downstream performance compute scaling long context modeling 或 搜索:

📄 论文总结

上下文感知缩放定律框架:联合建模下游任务性能与训练计算量和上下文长度的关系 / Context-Aware Scaling Laws Framework: Jointly Modeling Downstream Task Performance with Training Compute and Context Length


1️⃣ 一句话总结

本研究提出了一个可解释的框架,联合建模下游任务性能与训练计算量和上下文长度的关系,通过结合幂律项和惩罚项,在多个任务和模型规模上验证了其准确预测和泛化能力。


2️⃣ 论文创新点

1. 上下文感知缩放定律框架

2. 跨模型和上下文的泛化验证

3. 上下文扩展技术影响分析


3️⃣ 主要结果与价值

结果亮点

实际价值


4️⃣ 术语表

📄 打开原文 PDF