📄 论文总结
多视角三维点跟踪 / Multi-View 3D Point Tracking
1️⃣ 一句话总结
这篇论文提出了首个数据驱动的多视角三维点跟踪方法,能够利用少量摄像头实时、准确地追踪动态场景中的任意点,有效克服了单视角方法在深度模糊和遮挡方面的局限性。
请先 登录 后再提交论文
多视角三维点跟踪 / Multi-View 3D Point Tracking
这篇论文提出了首个数据驱动的多视角三维点跟踪方法,能够利用少量摄像头实时、准确地追踪动态场景中的任意点,有效克服了单视角方法在深度模糊和遮挡方面的局限性。
自回归通用视频分割模型 / Autoregressive Universal Video Segmentation Model
这篇论文提出了一个名为AUSM的统一模型,它能够同时处理有提示和无提示的视频分割任务,通过将视频分割视为序列掩码预测问题,实现了高效、可扩展且训练速度更快的通用视频分割解决方案。
VoxHammer:无需训练的原生3D空间精确与连贯编辑方法 / VoxHammer: Training-Free Precise and Coherent 3D Editing in Native 3D Space
这项研究提出了一种无需训练的3D编辑技术VoxHammer,通过在3D潜在空间中直接操作,实现了对指定区域的精确修改,同时完美保留未编辑部分的细节和整体连贯性,显著优于现有方法。
FastMesh:通过组件解耦实现高效艺术化网格生成 / FastMesh: Efficient Artistic Mesh Generation via Component Decoupling
这篇论文提出了一种将顶点和面分离生成的新方法,通过减少重复顶点表达使网格生成速度提升8倍以上,同时生成质量更高。
不遗漏任何标签:适用于所有监督模式的统一表面缺陷检测模型 / No Label Left Behind: A Unified Surface Defect Detection Model for all Supervision Regimes
这篇论文提出了一个名为SuperSimpleNet的高效通用模型,它通过创新的合成异常生成和优化学习流程,首次实现了在无监督、弱监督、混合监督和全监督四种场景下都能高效训练和检测表面缺陷,并在保持高速推理的同时显著提升了检测性能。
USO:通过解耦与奖励学习实现统一风格与主体驱动的生成 / USO: Unified Style and Subject-Driven Generation via Disentangled and Reward Learning
这项研究提出了一个名为USO的统一模型,能够同时保证生成图像在风格上与参考风格图相似、在主体内容上与原始内容图一致,解决了以往方法中风格与主体生成任务相互割裂的问题。
从矢量图到CAD:基于序列到序列学习的CAD生成 / Drawing2CAD: Sequence-to-Sequence Learning for CAD Generation from Vector Drawings
这篇论文提出了一种名为Drawing2CAD的新方法,能够将二维工程矢量图自动转换为精确的参数化CAD模型,通过序列到序列学习技术保留了原始设计意图和几何精度。
ROSE:消除视频中物体的附带效应 / ROSE: Remove Objects with Side Effects in Videos
这篇论文提出了一个名为ROSE的视频对象移除框架,它不仅能够去除物体本身,还能有效消除物体在环境中产生的阴影、反光等五种常见附带效应,通过合成数据和专门设计的模型在多种场景下实现了优于现有方法的性能。
ObjFiller-3D:通过视频扩散模型实现一致的多视角三维修复 / ObjFiller-3D: Consistent Multi-view 3D Inpainting via Video Diffusion Models
这篇论文提出了一种名为ObjFiller-3D的新方法,它通过巧妙利用先进的视频编辑模型来修复三维物体,解决了传统方法中多视角修复不一致的问题,从而实现了更高质量、更连贯的三维物体补全与编辑。
Social-MAE:基于Transformer的多模态人脸与语音自编码器 / Social-MAE: A Transformer-Based Multimodal Autoencoder for Face and Voice
这项研究开发了一个名为Social-MAE的多模态人工智能模型,通过自监督学习从人脸和语音数据中提取特征,在情感识别、笑声检测等社交任务中取得了领先或具有竞争力的性能。