BlockVid:用于高质量、一致性分钟级视频生成的块扩散模型 / BlockVid: Block Diffusion for High-Quality and Consistent Minute-Long Video Generation
1️⃣ 一句话总结
这篇论文提出了一个名为BlockVid的新方法,通过改进块扩散技术、引入语义感知缓存和新的训练策略,有效解决了生成长视频时常见的错误累积和连贯性问题,并在新建立的评测基准上显著超越了现有方法,能够生成更高质量、更连贯的分钟级长视频。
请先 登录 后再提交论文
BlockVid:用于高质量、一致性分钟级视频生成的块扩散模型 / BlockVid: Block Diffusion for High-Quality and Consistent Minute-Long Video Generation
这篇论文提出了一个名为BlockVid的新方法,通过改进块扩散技术、引入语义感知缓存和新的训练策略,有效解决了生成长视频时常见的错误累积和连贯性问题,并在新建立的评测基准上显著超越了现有方法,能够生成更高质量、更连贯的分钟级长视频。
SpeContext:利用大语言模型中的推测性上下文稀疏性实现高效长上下文推理 / SpeContext: Enabling Efficient Long-context Reasoning with Speculative Context Sparsity in LLMs
这篇论文提出了一种名为SpeContext的新方法,它通过使用一个轻量化的“蒸馏”模型来智能筛选长文本中的关键信息,并结合软硬件协同优化,在几乎不影响大模型回答准确性的前提下,大幅提升了长文本处理的速度和效率。
Inferix:基于块扩散的新一代世界模拟推理引擎 / Inferix: A Block-Diffusion based Next-Generation Inference Engine for World Simulation
这篇论文提出了一个名为Inferix的新型推理引擎,它采用块扩散技术来生成高质量、连贯且可交互的长视频,专门用于提升世界模拟的真实性和效率,为智能体和游戏等领域提供更强大的仿真能力。
注意力机制是扩散大语言模型中KV缓存的全部所需 / Attention Is All You Need for KV Cache in Diffusion LLMs
这项研究提出了一种名为弹性缓存的训练免费方法,通过选择性更新关键值缓存来大幅减少扩散大语言模型在推理时的计算冗余,在保持生成质量的同时显著提升了解码速度,在多个任务上实现了最高45倍的加速效果。
CompLLM:面向长上下文问答的压缩方法 / CompLLM: Compression for Long Context Q&A
这篇论文提出了一种名为CompLLM的智能压缩技术,通过将长文本分段独立压缩,显著提升了大语言模型处理长文本时的速度和效率,同时保持甚至在某些情况下超越了原始模型的性能表现。