标题:DE-NeRF:用于视角一致的外观编辑和高频环境重照明的解耦神经辐射场 内容:论文提出了DE-NeRF,它使用混合照明表示来解耦场景中的视角无关的外观和视角相关的外观。具体来说,作者首先训练一个签名距离函数来重建输入场景的显式网格。然后,一个解耦的NeRF通过在其顶点上定义表示几何和视角无关外观的可学习解耦特征,...
鉴于NeRF的普及和研究兴趣,作者认为有必要对过去两年的NeRF论文进行全面综述。作者从架构和应用两个维度对论文进行分类,还介绍了NeRF合成新视图的理论,以及比较了关键NeRF模型的性能和速度。 推理&训练&压缩 Hardware Acceleration of Neural Graphics(推理) 神经图形学的硬件加速 简述:论文研究了四个代表性的神经图形学...
经典论文 | Nerf: 将场景表示为用于视图合成的神经辐射场 作者:Ben Mildenhall,Pratul P. Srinivasan,Matthew Tancik 等来源:ECCV 2020项目链接: https://www.matthewtancik.com/nerf论文链接: https://arxiv.org/abs/2003.08934内容整理: 王睿妍 本文提出用一个 MLP 神经网络去隐式地学习一个静态的 3D 场景,...
F2-NeRF: Fast Neural Radiance Field Training with Free Camera Trajectories 论文链接:https://totoro97.github.io/projects/f2-nerf/ 提出了一种新的基于网格的NeRF,称为F2-NeRF(Fast Free NeRF),用于新的视图合成,它可以实现任意输入的相机轨迹,并且只需要几分钟的训练时间。现有的基于快速网格的NeRF训练框架,...
NeRF开篇-论文翻译 NeRF: Representing Scenes asNeural Radiance Fields for View Synthesis 摘要:我们提出了一种方法,通过使用稀疏的输入视图优化基于连续的体积场函数的方法,来实现合成复杂场景的新视图的最新结果。我们的算法使用一个全连接(非卷积)深度网络来表示场景,其输入是一个连续的5D坐标(空间位置(x,y,z)...
来自香港科技大学,清华大学的研究者提出了「GenN2N」,一个统一的生成式 NeRF-to-NeRF 转换框架,适用于各种 NeRF 转换任务,例如文字驱动的 NeRF 编辑、着色、超分辨率、修复等,性能均表现极其出色!论文地址:https://arxiv.org/abs/2404.02788论文主页:https://xiangyueliu.github.io/GenN2N/Github 地址:...
后续的论文大多使用 NeuS 作为 baseline 进行改进而非 VolSDF,个人猜测原因可能是,NeuS 的推导是以结果为导向,直接构建 SDF 和权重的关系,实现起来更为简洁直观,采样过程也是和 NeRF 一样采用 Hierarchical Sampling。 VolSDF 也是一篇非常不错的文章,理论推导更加严谨,学习 geometry 也更快。但是其采样过程比较复杂,...
论文地址:https://arxiv.org/abs/2404.02788 论文主页:https://xiangyueliu.github.io/GenN2N/ Github 地址:https://github.com/Lxiangyue/GenN2N 论文标题:GenN2N: Generative NeRF2NeRF Translation 近年来,神经辐射场(NeRF)因其紧凑、高质量、多功能性在三维重建、三维生成和新视角合成领域引起了广泛关注。然而...
我们提出一种方法,使用较少的视图(view)作为输入,对一个连续、隐含的体积场景函数(volumetric scene function)进行优化,从而实现了关于复杂场景的新视图合成的最先进的结果。 我们的算法用全连接深度网络来表示场景,其输入是 5D 坐标:空间位置( x , y , z ) (x,y,z)(x,y,z) 和视角方向(viewing direction...
近两年来,NeRF在计算机视觉领域引起了极大的关注,在计算机视觉顶会(CVPR/ICCV/ECCV)中相关成果越来越多,例如在2021年,CVPR上关于NeRF的论文不到10篇,2022年已经超过了50多篇,其他会议亦是如此。目前,NeRF在照片编辑、3D表面提取、大型/城市规模3D表示和视图合成中找到了应用。