🤖 系统
11-30 17:51
📄 论文总结
LUT-LLM:基于FPGA内存计算的高效大语言模型推理 / LUT-LLM: Efficient Large Language Model Inference with Memory-based Computations on FPGAs
1️⃣ 一句话总结
这项研究提出了一种名为LUT-LLM的创新方法,通过将大语言模型的计算从传统算术运算转变为基于内存的查找表操作,在FPGA上实现了比高端GPU更低延迟和更高能效的模型推理。