arXiv ID:
2601.18731
一适应万:用于个性化大语言模型对齐的元奖励建模 / One Adapts to Any: Meta Reward Modeling for Personalized LLM Alignment
1️⃣ 一句话总结
这篇论文提出了一种名为‘元奖励建模’的新方法,通过元学习让奖励模型能够仅用少量用户反馈就快速学习并适应新用户的个性化偏好,从而更高效地实现大语言模型的个性化对齐。