arXiv ID:
2602.21788
arXiv 提交日期: 2026-02-25
DHP:基于动态混合并行化的多模态大语言模型高效扩展训练方法 / DHP: Efficient Scaling of MLLM Training with Dynamic Hybrid Parallelism
1️⃣ 一句话总结
本文提出了一种名为动态混合并行(DHP)的新训练方法,它能根据多模态数据的巨大差异自动调整计算资源的分配方式,从而在保持高效扩展的同时,显著提升多模态大语言模型的训练速度。