← 返回列表

菜单

🤖 系统
📄 Abstract
正在获取摘要...
顶级标签: llm systems
详细标签: chain-of-thought confidence filtering early termination adaptive sampling efficient inference 或 搜索:

📄 论文总结


1️⃣ 一句话总结

这篇论文提出了一种名为 DeepConf 的新方法,通过利用大语言模型(LLM)生成过程中的细粒度内部置信度信号(如Token置信度、组置信度),在推理时动态地过滤低质量思维链或提前终止其生成,从而在保持甚至提升模型推理准确率的同时,显著降低了计算开销和生成延迟


2️⃣ 论文创新点

创新点一:提出多种细粒度的局部置信度度量方法

创新点二:设计离线和在线两种置信度应用范式

创新点三:引入自适应采样与动态共识停止机制


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF