arXiv ID:
2601.03509
演化式程序化技能网络 / Evolving Programmatic Skill Networks
1️⃣ 一句话总结
这篇论文提出了一种名为‘程序化技能网络’的新框架,让智能体能够像搭积木一样,通过可执行的符号程序来不断学习、优化和组合新技能,并在开放环境中展现出强大的适应和泛化能力。
演化式程序化技能网络 / Evolving Programmatic Skill Networks
这篇论文提出了一种名为‘程序化技能网络’的新框架,让智能体能够像搭积木一样,通过可执行的符号程序来不断学习、优化和组合新技能,并在开放环境中展现出强大的适应和泛化能力。
面向大语言模型持续适应的记忆库压缩方法 / Memory Bank Compression for Continual Adaptation of Large Language Models
本文提出了一种名为MBC的新方法,它通过一种创新的压缩和优化策略,极大地缩小了外部记忆库的规模,从而让大语言模型在持续学习新知识时,既能高效更新、防止遗忘旧知识,又不会因数据不断涌入而导致存储开销无限增长。
嵌套学习:深度学习架构的幻觉 / Nested Learning: The Illusion of Deep Learning Architectures
这篇论文提出了一种名为‘嵌套学习’的新学习范式,它将机器学习模型视为一组嵌套的、多层次的优化问题,并基于此设计了能够自我修改和持续学习的新模型,为解决现有模型在持续学习和上下文理解方面的根本挑战提供了新思路。
面向长上下文的端到端测试时训练 / End-to-End Test-Time Training for Long Context
这篇论文提出了一种新方法,将长文本建模视为一个持续学习问题,通过让模型在测试时根据当前文本内容自我学习,并利用训练时的元学习进行优化,从而在保持推理速度的同时,实现了与标准全注意力模型相当的性能扩展能力。
缓解统一多模态模型持续学习中的模态内与模态间遗忘 / Mitigating Intra- and Inter-modal Forgetting in Continual Learning of Unified Multimodal Models
这篇论文提出了一种名为MoDE的轻量级架构,通过将不同模态的学习过程解耦,有效解决了统一多模态模型在持续学习新任务时,不仅会在单一模态内部遗忘旧知识,还会在不同模态之间相互干扰导致遗忘的关键难题。
RECALL:通过分层模型合并实现表示对齐的灾难性遗忘缓解 / RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging
这项研究提出了一种名为RECALL的新方法,它通过分析大语言模型内部表示来智能合并不同任务的模型,从而在无需历史数据的情况下有效防止模型在学习新任务时遗忘旧知识,并在多个自然语言处理任务中表现出优越的性能。
持续音视频分割中的模态纠缠驯服 / Taming Modality Entanglement in Continual Audio-Visual Segmentation
本文提出了一种新的持续音视频分割任务,通过设计碰撞式多模态复习框架,解决了多模态语义漂移和共现混淆问题,显著提升了模型在连续学习新类别时的性能。
请先 登录 后再提交论文