arXiv ID:
2603.15271
arXiv 提交日期: 2026-03-16
Flash-Unified:一种面向原生统一模型、无需训练且任务感知的加速框架 / Flash-Unified: A Training-Free and Task-Aware Acceleration Framework for Native Unified Models
1️⃣ 一句话总结
这篇论文提出了一种名为FlashU的加速框架,它无需额外训练,通过分析统一模型中不同任务(如图像生成和视觉问答)对模型参数的依赖差异,动态地剪枝和跳过冗余计算,从而在保持顶尖性能的同时,将推理速度提升了近一倍。