最近我正在研究NeRF:将场景表示为用于视图合成的神经辐射场(https://www.matthewtancik.com/nerf),我想知道:它用于什么?NeRF会有任何应用吗?
这项技术的结果令人印象深刻,但它的用途是什么?我反复思考这个问题。它非常逼真,质量完美,但我们不想看到相机一直在晃动,对吗?
就个人而言,这种技术有一些局限性:
无法生成从未在输入图像中看到的视图。此技术在两个视图之间进行插值。
训练和渲染时间长:根据作者的说法,训练一个场景需要12小时,渲染一帧需要30秒。
视图是静态的,不可交互。
我不知道将NeRF与全景和360°图像/视频进行比较是否合适,它们本质上是不同的,只有NeRF使用深度学习来生成新视图,其他的基本上只是使用智能手机/相机来捕捉场景,加上一些计算机视觉技术。然而,长时间的培训使NeRF在该应用领域的竞争力下降。我说得对吗?
我能想到的另一个工具是产品渲染,然而,与使用3D软件进行渲染相比,NeRF并没有显示出优势。像商业广告一样,通常需要动画和特效,那么3D软件肯定能做得更好。
NeRF的途可能是3D重建,但这将超出范围,尽管它能够做到这一点。为什么我们需要使用NeRF进行3D重建?为什么不使用其他重建技术?NeRF的独特功能是能够创建照片般逼真的视图,如果我们使用NeRF进行3D重建,那么这一功能将变得毫无意义。
有人有新想法吗?我想知道。
为什么我们需要使用NeRF进行3D重建?
另一种选择是多视点立体,它产生有限分辨率的点云,并且容易受到照明变化的影响。如果然后在不进行非琐碎的后处理的情况下渲染此类点云,它将看起来不真实。
我不知道将NeRF与全景和360°图像/视频进行比较是否合适,
好吧,如果您使用简单的照明(即环境光和朗伯对象)处理完全平坦的场景,那么您可以使用全景技术进行新的视图合成。不过,一般来说,它不会产生你期望的结果。你必须知道深度才能正确插值。
当涉及到实际限制(缓慢;不建模变形)时,NeRF应被视为一个里程碑,它提供了一个概念证明,将曲面表示为MLP建模函数的级别集可以导致清晰的渲染。在解决这些限制方面已经取得了很好的进展,许多作品将这一理念应用于实际任务。
本站系公益性非盈利分享网址,本文来自用户投稿,不代表码文网立场,如若转载,请注明出处
评论列表(36条)