计算机图形学和3D视觉技术的进步极大地提高了从2D图像创建详细3D场景的能力。这一进步基于多年的3D重建方法发展,例如基于运动的结构(SfM)(Snavely, Seitz, Szeliski, 2006, Ye, Bao, Zhou, Liu, Bao, Zhang, 2024a)和多视图立体视觉(MVS)(Furukawa, Ponce, 2010, Li, Zhou, Jiang, Zhang, Xiang, Sun, Luan, Bao, Zhang, 2023, Xu, Chen, Sun, Xie, Kang, 2024)。其中一个值得注意的进展是Kerbl等人(2023)提出的3D高斯点扩散(3DGS),它采用椭圆高斯函数(也称为高斯点)来表示3D场景。3DGS扩展了使用类似其他基于点的方法(Aliev, Sevastopolsky, Kolos, Ulyanov, Lempitsky, 2020, Gross, Pfister, 2007)来表示3D场景的思想,这些方法将高斯函数视为基本元素。一个高斯点由一组可学习的特征定义,如球谐分量、尺度、旋转、位置和不透明度。这种方法允许场景的平滑且连续变化的表现,使得渲染更加高效,并成为重建高质量3D场景的有用工具。此外,重建良好的点云还可以支持多种下游任务,包括关键点提取(Shao et al., 2024)、3D对象检测(Ding, Xie, Nie, Wu, Cao, 2024, Li, Li, Gao, Gao, Wu, Liu, 2025)和点云加密(Yang et al., 2024a)。
尽管在创建高质量的新视图图像方面取得了进展,但在特定条件下提高重建质量仍存在挑战(Kheradmand, Rebain, Sharma, Sun, Tseng, Isack, Kar, Tagliasacchi, Yi, 2024, Wei, Wu, Zheng, Rezatofighi, & Cai, Ye, Li, Liu, Qiao, Dou, 2024b)。降低重建质量的主要问题是某些初始点云稀疏的区域未能得到充分密集化。足够的高斯点无法充分表示这些区域,导致模型陷入局部最小值,从而产生模糊和针状伪影。
另一个挑战是当不同视图方向的光照条件变化过于剧烈时,这些区域的外观会出现颜色退化和细节丢失。
为了解决这些挑战,我们提出了Metamon-GS。我们的方法采用基于方差引导的密集化技术,通过分析颜色梯度的方差来确定需要更多高斯点的区域。该技术能够识别出颜色变化大但位置梯度变化小的区域,从而有效地确定需要增加高斯点密度的区域。通过强调颜色差异而不仅仅是位置梯度,我们可以在之前未能完全重建的区域实现更好的表示,解决了渲染像素间梯度平滑的不足。
此外,我们还解决了根据不同视角有效解释颜色的问题(Gao, Gu, Lin, Li, Zhu, Cao, Zhang, Yao, 2024, Jiang, Tu, Liu, Gao, Long, Wang, Ma, 2024, Shi, Wu, Wu, Liu, Zhao, Feng, Zhang, Zhou, Ding, Wang, 2025, Yang, Gao, Sun, Huang, Lyu, Zhou, Jiao, Qi, Jin, 2024b)。受到Instant-NGP(Müller et al., 2022)的启发,我们建议使用哈希网格来编码视图依赖的特征。我们将光照条件视为全局属性,并将最初存储在锚点嵌入中的方向信息纳入哈希网格。在MLP输入中,用哈希网格编码的方向向量替换了原始的方向向量。这种方法实现了更准确的视图依赖颜色解码。
我们在Mip-NeRF 360(Barron et al., 2022)、NeRF Synthetic(Mildenhall et al., 2020)和Tanks & Temples(Knapitsch et al., 2017)数据集上进行了广泛的实验,以展示我们模型相对于基线模型的优势。我们还进行了消融研究来验证所提出方法的有效性。我们的贡献包括:
•我们提出使用哈希网格来编码光照条件,从而提高了光照复杂的场景的重建质量。
•我们提出了一种基于像素梯度方差的新型密集化策略,以解决渲染像素梯度平滑引起的问题。该方法主要在高斯光栅化器的代码部分使用CUDA实现。
•在各种数据集上的实验表明,我们的方法成功解决了这些挑战,并优于基线模型。