ShadowDraw:从任意物体到光影绘画的组合艺术 / ShadowDraw: From Any Object to Shadow-Drawing Compositional Art
1️⃣ 一句话总结
这篇论文提出了一个名为ShadowDraw的系统,它能把普通的3D物体变成一种艺术创作工具:通过自动调整物体的摆放位置和灯光,让物体投下的影子恰好能补全一幅未完成的线稿,从而形成一幅完整的、有意义的图画。
请先 登录 后再提交论文
ShadowDraw:从任意物体到光影绘画的组合艺术 / ShadowDraw: From Any Object to Shadow-Drawing Compositional Art
这篇论文提出了一个名为ShadowDraw的系统,它能把普通的3D物体变成一种艺术创作工具:通过自动调整物体的摆放位置和灯光,让物体投下的影子恰好能补全一幅未完成的线稿,从而形成一幅完整的、有意义的图画。
GaussianBlender:利用解耦潜在空间实现3D高斯模型的即时风格化 / GaussianBlender: Instant Stylization of 3D Gaussians with Disentangled Latent Spaces
这篇论文提出了一种名为GaussianBlender的新方法,它能够根据文字描述,在无需针对每个3D模型进行耗时优化的前提下,快速、高质量地改变3D物体的视觉风格,同时保持其原有形状和多视角一致性,为游戏和虚拟现实等领域的大规模3D内容创作提供了实用工具。
BlurDM:一种用于图像去模糊的模糊扩散模型 / BlurDM: A Blur Diffusion Model for Image Deblurring
这篇论文提出了一种名为BlurDM的新模型,它巧妙地将图像模糊的形成过程融入到扩散模型中,通过同时去噪和去模糊的方式,有效提升了现有图像去模糊方法的性能。
PosterCopilot:面向专业平面设计的布局推理与可控编辑 / PosterCopilot: Toward Layout Reasoning and Controllable Editing for Professional Graphic Design
这篇论文提出了一个名为PosterCopilot的智能设计框架,它通过创新的训练方法让大模型学会精确的布局规划和审美判断,并支持对设计元素进行分层、迭代的精细化编辑,从而能自动生成几何准确且美观的专业海报。
奖励强制:通过奖励分布匹配蒸馏实现高效流式视频生成 / Reward Forcing: Efficient Streaming Video Generation with Rewarded Distribution Matching Distillation
这篇论文提出了一种名为‘奖励强制’的新方法,通过引入能融合长期上下文与近期动态的EMA-Sink令牌,以及利用视觉语言模型奖励来优先学习动态内容的分布匹配蒸馏技术,有效解决了现有流式视频生成方法中初始帧被过度复制、运动动态不足的问题,从而在保持长时一致性的同时,显著提升了生成视频的运动质量和生成效率。
实时数字人:支持无限时长流式生成、由实时音频驱动的数字人生成 / Live Avatar: Streaming Real-time Audio-Driven Avatar Generation with Infinite Length
这篇论文提出了一个名为Live Avatar的软硬件协同设计框架,它通过创新的并行计算和缓存机制,首次实现了使用超大规模扩散模型进行高保真、低延迟、无限时长的实时数字人视频流式生成。
子弹时间:用于视频生成的时空解耦控制框架 / BulletTime: Decoupled Control of Time and Camera Pose for Video Generation
这篇论文提出了一个名为‘子弹时间’的新框架,它能够像独立调节时间和摄像机视角一样,分别精确控制生成视频中场景的动态变化和拍摄角度,从而解决了现有视频生成模型难以实现精细时空控制的问题。
CookAnything:一个灵活且一致的用于多步骤菜谱图像生成的框架 / CookAnything: A Framework for Flexible and Consistent Multi-Step Recipe Image Generation
这篇论文提出了一个名为CookAnything的新框架,它能够根据任意长度的文字菜谱指令,智能地生成一系列既连贯又步骤分明的烹饪过程图片,解决了现有AI模型在生成多步骤、结构化图像序列时面临的灵活性和一致性难题。
Ovis-Image技术报告 / Ovis-Image Technical Report
这篇论文介绍了一个名为Ovis-Image的高效文本生成图像模型,它虽然体积小巧,但通过结合强大的多模态核心和专注于文本的训练方法,能够在普通高端显卡上实现媲美大型模型的文字渲染质量。
PixelDiT:用于图像生成的像素扩散变换器 / PixelDiT: Pixel Diffusion Transformers for Image Generation
这篇论文提出了一种名为PixelDiT的新型图像生成模型,它摒弃了传统两阶段流程中依赖的压缩编码器,直接在原始像素空间进行端到端训练,通过结合全局语义和局部细节的双层变换器设计,在保持图像精细纹理的同时,取得了比以往像素级生成模型更好的效果。