arXiv ID:
2604.27911
物理基础模型:大规模神经网络的固定硬件实现 / Physical Foundation Models: Fixed hardware implementations of large-scale neural networks
1️⃣ 一句话总结
本文提出一种全新思路:将万亿参数级别的基础模型(如GPT-5)直接设计成专用物理硬件,利用光、电子等物理现象进行运算,从而大幅提升能效、速度和参数密度,有望将AI从数据中心扩展到边缘设备,并支持更大规模的模型(如千万亿参数)。