arXiv ID:
2603.27666
arXiv 提交日期: 2026-03-29
无需多模态注意力的门控条件注入:迈向可控的线性注意力Transformer / Gated Condition Injection without Multimodal Attention: Towards Controllable Linear-Attention Transformers
1️⃣ 一句话总结
这篇论文提出了一种专门为高效线性注意力模型设计的新框架,通过一个统一的门控条件模块,成功解决了现有方法在整合多种控制信号时灵活性不足或训练缓慢的问题,从而在保护用户隐私的边缘设备上实现了高质量、可控的图像生成。