← 返回列表

菜单

🤖 系统
📄 Abstract
正在获取摘要...
详细标签: 3d scene generation diffusion transformer multi-asset synthesis feature aggregation scene composition 或 搜索:

📄 论文总结


1️⃣ 一句话总结

本文提出了SceneGen,一个端到端的生成模型,旨在从单张场景图像一次性生成多个3D资产(包括几何、纹理)及其相对空间位置,其核心创新在于通过一个特征聚合模块显式建模资产间的交互,确保了生成场景的合理拓扑和高保真度,且该模型无需耗时的优化或检索过程,效率极高,并展现出强大的向多视图输入泛化的能力。


2️⃣ 论文创新点

1. 单次前向传播的完整场景生成

2. 集成局部与全局场景上下文的特征聚合

3. 无需重新训练的多视图推理泛化能力

4. 高效训练与动态采样策略


3️⃣ 主要结果与价值

实验结果亮点

实际应用价值


4️⃣ 术语表

📄 打开原文 PDF