arXiv ID:
2512.24146
通过方向性解耦对齐驯服扩散强化学习中的偏好模式坍缩 / Taming Preference Mode Collapse via Directional Decoupling Alignment in Diffusion Reinforcement Learning
1️⃣ 一句话总结
这篇论文针对基于人类反馈的强化学习在优化文本到图像扩散模型时,容易导致模型生成风格单一、多样性丧失的‘偏好模式坍缩’问题,提出了一个量化该现象的新基准,并设计了一种通过方向性修正奖励信号来维持图像多样性的新方法,从而在保证图像质量的同时更好地与人类偏好对齐。