arXiv ID:
2602.21933
arXiv 提交日期: 2026-02-25
小胜大:比较大语言模型与领域微调模型在混合印地-英语文本中的讽刺检测能力 / Small Wins Big: Comparing Large Language Models and Domain Fine-Tuned Models for Sarcasm Detection in Code-Mixed Hinglish Text
1️⃣ 一句话总结
这项研究发现,在资源有限的混合印地-英语文本讽刺检测任务中,经过针对性微调的小型模型(DistilBERT)表现优于多种通用大语言模型,表明特定领域的精细调整比模型规模本身更为关键。