arXiv ID:
2601.08881
arXiv 提交日期: 2026-01-12
TAG-MoE:面向统一生成模型的专家混合任务感知门控机制 / TAG-MoE: Task-Aware Gating for Unified Generative Mixture-of-Experts
1️⃣ 一句话总结
这篇论文提出了一种让专家混合模型能‘看懂任务’的新方法,通过给任务添加语义标签并引导模型内部路由与之对齐,有效解决了统一图像生成与编辑模型中不同任务相互干扰的问题,从而提升了生成效果。