← 返回列表

菜单

🤖 系统
📄 Abstract
正在获取摘要...
顶级标签: llm systems
详细标签: chain-of-thought reasoning token pruning efficiency optimization code generation surprisal metric 或 搜索:

📄 论文总结


1️⃣ 一句话总结

本文提出ASAP框架,通过两阶段剪枝(粗粒度锚点引导+细粒度首词惊异值优化)压缩思维链(CoT)推理步骤,在代码生成任务中减少23.5%的token和43.5%的延迟,同时保持36.19%的Pass@1准确率,解决了长推理链的计算冗余问题。


2️⃣ 论文创新点

1. 两阶段逻辑感知剪枝框架

2. 首词惊异值(First-Token Surprisal)指标

3. 资源敏感的稳健性设计


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表


📄 打开原文 PDF