← 返回列表

菜单

🤖 系统
📄 Abstract - Efficient Multi-modal Large Language Models via Progressive Consistency Distillation
正在获取摘要...
详细标签: knowledge distillation token compression efficient inference multimodal llms progressive learning 或 搜索:

📄 论文总结

通过渐进一致性蒸馏实现高效多模态大语言模型

Efficient Multi-modal Large Language Models via Progressive Consistency Distillation


1️⃣ 一句话总结

EPIC框架通过渐进一致性蒸馏方法,在无需修改模型架构的情况下,有效解决了多模态大语言模型中视觉token压缩带来的训练困难问题,显著提升了模型效率和性能。


2️⃣ 论文创新点

1. 渐进一致性蒸馏学习框架

2. Token一致性蒸馏(TCD)

3. Layer一致性蒸馏(LCD)

4. 灵活token压缩控制


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF