子弹时间:用于视频生成的时空解耦控制框架 / BulletTime: Decoupled Control of Time and Camera Pose for Video Generation
1️⃣ 一句话总结
这篇论文提出了一个名为‘子弹时间’的新框架,它能够像独立调节时间和摄像机视角一样,分别精确控制生成视频中场景的动态变化和拍摄角度,从而解决了现有视频生成模型难以实现精细时空控制的问题。
请先 登录 后再提交论文
子弹时间:用于视频生成的时空解耦控制框架 / BulletTime: Decoupled Control of Time and Camera Pose for Video Generation
这篇论文提出了一个名为‘子弹时间’的新框架,它能够像独立调节时间和摄像机视角一样,分别精确控制生成视频中场景的动态变化和拍摄角度,从而解决了现有视频生成模型难以实现精细时空控制的问题。
DreamingComics:一种基于视频模型、通过主体与布局定制生成的故事可视化流程 / DreamingComics: A Story Visualization Pipeline via Subject and Layout Customized Generation using Video Models
这篇论文提出了一个名为DreamingComics的故事可视化新方法,它通过改进的视频模型和创新的布局控制技术,能根据文字脚本自动生成漫画风格且角色与画风高度一致的连续画面。
视频作为答案:利用联合GRPO预测并生成下一视频事件 / Video-as-Answer: Predict and Generate Next Video Event with Joint-GRPO
这篇论文提出了一种新方法,能够根据视频和问题直接生成展示下一事件的视频答案,而不是文字描述,使得教学和创意探索更加直观。
即刻移动:通过双时钟去噪实现无需训练的运动控制视频生成 / Time-to-Move: Training-Free Motion Controlled Video Generation via Dual-Clock Denoising
这篇论文提出了一种无需额外训练、即插即用的视频生成框架,通过用户简单的动画草图和双时钟去噪技术,实现了对视频中物体运动和外观的精确控制,同时保持自然动态效果。
视频作为提示:视频生成的统一语义控制 / Video-As-Prompt: Unified Semantic Control for Video Generation
这篇论文提出了一种名为VAP的新方法,通过将参考视频作为语义提示来指导视频生成,无需额外训练即可实现高质量、多样化的可控视频生成,并在多种任务中表现出强大的零样本泛化能力。
LikePhys:通过似然偏好评估视频扩散模型中的直觉物理理解 / LikePhys: Evaluating Intuitive Physics Understanding in Video Diffusion Models via Likelihood Preference
这项研究提出了一种无需训练的方法LikePhys,通过比较物理合理与不合理视频的生成概率来评估视频扩散模型对物理规律的理解能力,发现模型规模越大对物理世界的模拟越准确,但在复杂动态场景中仍有不足。
AdaViewPlanner:将视频扩散模型适配于4D场景中的视点规划 / AdaViewPlanner: Adapting Video Diffusion Models for Viewpoint Planning in 4D Scenes
这项研究将预训练的文生视频模型改造为视点规划工具,通过两阶段方法从4D场景生成视频并提取最佳观察视角,展现了视频生成模型在真实世界4D交互中的潜力。
装扮与舞蹈:随心所欲地装扮并起舞 - 技术预览 / Dress&Dance: Dress up and Dance as You Like It - Technical Preview
这项研究开发了一个名为Dress&Dance的视频生成系统,能够根据用户的一张照片和一件指定服装,自动合成一段高质量、动作自然的虚拟试穿视频。
ObjFiller-3D:通过视频扩散模型实现一致的多视角三维修复 / ObjFiller-3D: Consistent Multi-view 3D Inpainting via Video Diffusion Models
这篇论文提出了一种名为ObjFiller-3D的新方法,它通过巧妙利用先进的视频编辑模型来修复三维物体,解决了传统方法中多视角修复不一致的问题,从而实现了更高质量、更连贯的三维物体补全与编辑。