近日,来自德国埃尔兰根-纽伦堡大学的学者提出了一种新颖的神经网络方法,用于3D图像的场景细化和新视图合成。只需要输入点云和相机参数的初始估计,就可以输出由任意相机角度合成的图像,360度旋转都不是问题。
研究人员表示,高效的单像素点光栅化让他们能够实时显示超过 1 亿个像素点的点云场景。

一亿个像素点是什么概念?说白了,这些3D图像太逼真了,简直和拍照没啥区别。

这项研究最近在推特上收到了很大的关注,网友纷纷回应:impressive!同时,也有网友表示,这项研究确实利用了大规模动态输入点云的优势,而这原本是“超级难”的问题。

如下图所示,给定一组RGB图像和初始3D重建(图左),该渲染方法能够合成新的帧,并优化场景参数。

1202295611680.jpg

1202108711680.jpg


论文地址:https://arxiv.org/pdf/2110.06635v1.pdf


转自:https://www.robot-china.com/news/202110/18/67762.html