arXiv ID:
2601.18577
自我优化视频采样 / Self-Refining Video Sampling
1️⃣ 一句话总结
这篇论文提出了一种让现有视频生成模型在推理时进行自我迭代优化的方法,无需额外训练或外部验证器,就能显著提升生成视频中复杂物理运动的真实感和连贯性。
自我优化视频采样 / Self-Refining Video Sampling
这篇论文提出了一种让现有视频生成模型在推理时进行自我迭代优化的方法,无需额外训练或外部验证器,就能显著提升生成视频中复杂物理运动的真实感和连贯性。
一适应万:用于个性化大语言模型对齐的元奖励建模 / One Adapts to Any: Meta Reward Modeling for Personalized LLM Alignment
这篇论文提出了一种名为‘元奖励建模’的新方法,通过元学习让奖励模型能够仅用少量用户反馈就快速学习并适应新用户的个性化偏好,从而更高效地实现大语言模型的个性化对齐。
达芬奇-开发:面向软件工程的智能体原生中期训练 / daVinci-Dev: Agent-native Mid-training for Software Engineering
这篇论文提出了一种名为‘智能体原生中期训练’的新方法,通过生成和利用模拟真实软件开发流程的训练数据,让大型语言模型能像人类程序员一样自主地理解、修改和测试复杂代码库,从而显著提升其在软件工程任务中的表现。
IPBC:一种基于交互式投影的人机协同半监督高维数据聚类框架 / IPBC: An Interactive Projection-Based Framework for Human-in-the-Loop Semi-Supervised Clustering of High-Dimensional Data
这篇论文提出了一种名为IPBC的交互式框架,通过让用户在二维投影图上调整视角和添加简单约束(如必须关联或不能关联),来引导机器学习模型优化数据布局,从而将高维数据的聚类过程转变为人机协作的探索任务,最终在少量人工干预下显著提升聚类效果并生成可解释的结果。
几何接地的Gaussian Splatting / Geometry-Grounded Gaussian Splatting
这篇论文通过将Gaussian Splatting中的高斯基元重新定义为一种随机实体,为其提供了坚实的几何理论基础,从而能够直接从这些基元中高效、准确地提取出高质量的3D形状,解决了现有方法形状重建不一致和对噪声敏感的问题。
VAE-REPA:基于变分自编码器表征对齐的高效扩散模型训练方法 / VAE-REPA: Variational Autoencoder Representation Alignment for Efficient Diffusion Training
这篇论文提出了一种名为VAE-REPA的轻量级方法,通过将扩散模型训练过程中的中间特征与预训练变分自编码器的特征进行对齐,来显著提升模型的训练效率和生成质量,且无需依赖额外的外部模型或复杂的双模型架构。
AR-Omni:一个用于任意模态间生成任务的统一自回归模型 / AR-Omni: A Unified Autoregressive Model for Any-to-Any Generation
这篇论文提出了一个名为AR-Omni的统一模型,它仅用一个自回归解码器就能同时处理文本、图像和语音的生成任务,并通过创新的训练和推理方法解决了多模态统一建模中的关键难题,实现了高质量且实时的多模态生成。
ReflexSplit:通过层融合-分离实现单图像反射分离 / ReflexSplit: Single Image Reflection Separation via Layer Fusion-Separation
这篇论文提出了一个名为ReflexSplit的双流神经网络框架,通过创新的跨尺度融合和交替的融合-分离模块,有效解决了单张图像中因玻璃反光导致的图像混合分离难题,在复杂场景下实现了更清晰、更准确的反射层和背景层分离效果。
PEARL:面向数字治理通信系统的原型增强对齐方法——在标签稀缺条件下实现高效表征学习 / PEARL: Prototype-Enhanced Alignment for Label-Efficient Representation Learning with Deployment-Driven Insights from Digital Governance Communication Systems
本文提出了一种名为PEARL的新方法,它利用少量标注数据就能显著改善预训练模型生成文本向量的质量,使得在数字政务等实际系统中,基于相似度检索和分类的任务更加准确可靠。
面向设备端大型语言模型的聚类驱动内存压缩 / Clustering-driven Memory Compression for On-device Large Language Models
这篇论文提出了一种基于聚类的内存压缩方法,通过将相似的用户记忆分组合并,在减少设备端大型语言模型所需内存空间的同时,有效保持了生成内容的个性化质量。
请先 登录 后再提交论文