今天看啥  ›  专栏  ›  3D视觉之心

UIUC&英伟达开源NeRFDeformer:转换3D场景仅需一张RGB-D快照!(CVPR'24)

3D视觉之心  · 公众号  ·  · 2024-06-27 07:00
    

文章预览

点击下方 卡片 ,关注“ 3D视觉之心 ”公众号 第一时间获取 3D视觉干货 >> 点击进入→ 3D视觉之心技术交流群 无需为场景变更训练新NeRF NeRF通常用于表示复杂的3D场景,当场景被修改时,机器人 需要重新捕获多个视图来重新训练新的NeRF 。这个过程: 会丢弃原始场景中的重要信息 耗时 如图1所示, NeRFDeformer [1]期望允许通过单个RGBD图像将给定的NeRF场景变换为新的观察到的场景,即 检索变换后的场景几何并从不同的视角渲染新场景 。 目前大多数 NeRF编辑方法 并没有提供自动匹配变换后场景的机制,因此需要手动定义变换(这对于非刚性变换来说并不简单)。在NeRFDeformer的问题设置中, 用户输入不可用 。其他成功的工作研究了通过时间进行的NeRF变换,其中时间组件被密集采样。相比之下,NeRFDeformer仅假设对变换后的场景进行一次RGBD视图的观察。 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览