← 返回列表

菜单

🤖 系统
📄 Abstract
正在获取摘要...
顶级标签: systems
详细标签: distributed training large language models mixture-of-experts parallel computing efficiency optimization 或 搜索:

📄 论文总结


1️⃣ 一句话总结

VeOmni提出了一种模型中心的分布式训练框架,通过解耦模型定义与并行逻辑、优化多模态扩展接口和高效并行策略(如FSDP+SP+EP),显著提升了全模态大语言模型(如MoE架构)的训练效率和可扩展性,在128 GPU上实现30B参数模型的高吞吐量(2,800 tokens/sec/GPU)和超长序列(160K tokens)支持。


2️⃣ 论文创新点

1. 模型-系统解耦设计

2. 轻量级全模态定制架构

3. 高效分布式训练优化

4. 混合专家(MoE)友好设计


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表


(总结合并了12个chunk的创新点与术语,突出框架设计、效率提升和跨模态价值,避免冗余引用细节。)

📄 打开原文 PDF