← 返回列表

菜单

🤖 系统
📄 Abstract - Mitigating Matthew Effect in Self-Improvement of Large Vision-Language Models
正在获取摘要...
详细标签: self-improvement data imbalance reasoning vision-language models distribution rebalancing 或 搜索:

📄 论文总结

大型视觉语言模型自改进中的马太效应缓解策略 / Mitigating Matthew Effect in Self-Improvement of Large Vision-Language Models


1️⃣ 一句话总结

本研究识别了LVLM自改进过程中的马太效应问题,并提出头尾再平衡框架,通过四种策略有效缓解数据分布不平衡,显著提升模型在复杂推理任务上的性能。


2️⃣ 论文创新点

1. 头尾再平衡框架

2. 阈值裁剪(TC)

3. 重复填充(RP)

4. 自适应加权重采样(AR)

5. 引导重采样(GR)


3️⃣ 主要结果与价值

结果亮点

实际价值


4️⃣ 术语表

📄 打开原文 PDF