Nemotron-Flash:迈向延迟最优的混合小型语言模型 / Nemotron-Flash: Towards Latency-Optimal Hybrid Small Language Models
1️⃣ 一句话总结
这篇论文提出了一种名为Nemotron-Flash的新型混合小型语言模型,它通过优化模型深度与宽度的比例、选择高效的运算模块以及改进训练方法,在保证精度的同时,显著降低了模型在实际设备上的运行延迟并提高了处理速度。
请先 登录 后再提交论文
Nemotron-Flash:迈向延迟最优的混合小型语言模型 / Nemotron-Flash: Towards Latency-Optimal Hybrid Small Language Models
这篇论文提出了一种名为Nemotron-Flash的新型混合小型语言模型,它通过优化模型深度与宽度的比例、选择高效的运算模块以及改进训练方法,在保证精度的同时,显著降低了模型在实际设备上的运行延迟并提高了处理速度。
RoMa v2:更强大、更优秀、更快速、更密集的特征匹配 / RoMa v2: Harder Better Faster Denser Feature Matching
这篇论文提出了一种新的密集图像特征匹配模型,通过改进网络结构、训练策略和优化技术,在保持高精度的同时大幅提升了匹配速度和效率,适用于各种复杂场景。
缩放定律与模型架构:迈向推理高效的大型语言模型 / Scaling Laws Meet Model Architecture: Toward Inference-Efficient LLMs
这篇论文通过引入包含模型架构信息的条件缩放定律和搜索框架,在保持高精度的同时显著提升了大型语言模型的推理效率,相比现有模型最高可提升42%的推理吞吐量。
从像素到词汇——构建大规模原生视觉语言基础模型 / From Pixels to Words -- Towards Native Vision-Language Primitives at Scale
这篇论文提出了构建原生视觉语言模型(VLM)的核心原则,并发布了名为NEO的新型模型系列,通过统一架构有效融合视觉与语言能力,在少量数据下实现与顶尖模块化模型相媲美的性能。