arXiv ID:
2604.20368
arXiv 提交日期: 2026-04-22
拉普拉斯变换器:用拉普拉斯核重新思考线性注意力机制 / LaplacianFormer:Rethinking Linear Attention with Laplacian Kernel
1️⃣ 一句话总结
本文提出了一种名为拉普拉斯变换器的新型Transformer架构,通过使用拉普拉斯核代替传统的softmax注意力机制,在保持线性计算复杂度的同时更准确地捕捉长距离和中距离的像素交互,并搭配高效的数值算法和GPU加速,在图像识别任务上实现了更好的性能与效率平衡。