📄 论文总结
测试时自改进的LLM智能体 / Self-Improving LLM Agents at Test-Time
1️⃣ 一句话总结
这篇论文提出了一种让语言模型在测试时自我优化的方法,通过识别自身薄弱环节、自动生成类似训练样本并即时学习,仅用极少量数据就能显著提升模型性能,为构建更智能的自进化AI系统提供了新思路。
请先 登录 后再提交论文
测试时自改进的LLM智能体 / Self-Improving LLM Agents at Test-Time
这篇论文提出了一种让语言模型在测试时自我优化的方法,通过识别自身薄弱环节、自动生成类似训练样本并即时学习,仅用极少量数据就能显著提升模型性能,为构建更智能的自进化AI系统提供了新思路。
思维增强预训练 / Thinking Augmented Pre-training
这篇论文提出了一种通过自动生成思维轨迹来增强文本数据的方法,能够将大语言模型预训练的数据效率提升三倍,并在多个推理任务上显著提升模型性能。
属性作为文本基因:利用大语言模型作为遗传算法模拟器进行条件性合成数据生成 / Attributes as Textual Genes: Leveraging LLMs as Genetic Algorithm Simulators for Conditional Synthetic Data Generation
这篇论文提出了一种名为'遗传提示'的新方法,通过将文本属性视为基因并利用大语言模型模拟遗传算法中的交叉和变异操作,有效提升了合成数据的质量和多样性,在多种自然语言处理任务中显著优于现有技术。
TCIA:一种面向任务的指令增强方法用于指令微调 / TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning
本文提出了一种名为TCIA的指令增强方法,它能在保持指令多样性的同时,专门针对特定任务场景生成相关指令,从而显著提升大型语言模型在现实任务中的性能,且不影响其通用指令遵循能力。