← 返回列表

菜单

🤖 系统
📄 Abstract - LoFT: Long-Tailed Semi-Supervised Learning via Parameter-Efficient Fine-Tuning and Its Open-World Extension
正在获取摘要...
详细标签: parameter-efficient fine-tuning long-tailed learning semi-supervised learning ood detection pseudo-labeling 或 搜索:

📄 论文总结

基于参数高效微调的长尾半监督学习框架及其开放世界扩展

LoFT: Long-Tailed Semi-Supervised Learning via Parameter-Efficient Fine-Tuning and Its Open-World Extension


1️⃣ 一句话总结

LoFT是一种基于预训练Transformer基础模型的参数高效微调方法,通过改进伪标签质量和模型校准能力,有效解决了长尾半监督学习中的过度自信和伪标签噪声问题,并在开放世界场景中通过OOD检测机制进一步提升模型鲁棒性。


2️⃣ 论文创新点

1. LoFT框架

2. LoFT-OW开放世界扩展

3. 混合伪标签监督策略


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF