本文中,来自北京大学、南洋理工大学 S-Lab 和上海人工智能实验室的研究者提出了一个新的框架 LGM,即 Large Gaussian Model,实现了从单视角图片或文本输入只需 5 秒钟即可生成高分辨率高质量三维物体。目前,代码和模型权重均已开源。研究者还提供了一个在线 Demo 供大家试玩。论文标题:LGM: Large Multi-View G...
本文中,来自北京大学、南洋理工大学 S-Lab 和上海人工智能实验室的研究者提出了一个新的框架 LGM,即 Large Gaussian Model,实现了从单视角图片或文本输入只需 5 秒钟即可生成高分辨率高质量三维物体。 目前,代码和模型权重均已开源。研究者还提供了一个在线 Demo 供大家试玩。 论文标题:LGM: Large Multi-View Ga...
本文中,来自北京大学、南洋理工大学 S-Lab 和上海人工智能实验室的研究者提出了一个新的框架 LGM,即 Large Gaussian Model,实现了从单视角图片或文本输入只需 5 秒钟即可生成高分辨率高质量三维物体。 目前,代码和模型权重均已开源。研究者还提供了一个在线 Demo 供大家试玩。 论文标题:LGM: Large Multi-View Ga...
本文中,来自北京大学、南洋理工大学 S-Lab 和上海人工智能实验室的研究者提出了一个新的框架 LGM,即 Large Gaussian Model,实现了从单视角图片或文本输入只需 5 秒钟即可生成高分辨率高质量三维物体。 目前,代码和模型权重均已开源。研究者还提供了一个在线 Demo 供大家试玩。 论文标题:LGM: Large Multi-View Ga...
LGM的核心技术在于其Large Multi-View Gaussian Model模块。这一模块深受高斯溅射理论的启发,通过一个高效且轻量的非对称U-Net网络作为主干,直接从四个不同视角的图像中预测出高分辨率的高斯基元,并进一步渲染出任意视角下的图像。具体来说,U-Net网络接收四个视角的图像及其对应的普吕克坐标,经过处理后,输出一组...
在技术上,LGM 核心模块是 Large Multi-View Gaussian Model。受到高斯溅射的启发,该方法使用一个高效轻量的非对称 U-Net 作为骨干网络,直接从四视角图片中预测高分辨率的高斯基元,并最终渲染为任意视角下的图片。 具体而言,骨干网络 U-Net 接受四个视角的图像和对应的普吕克坐标,输出多视角下的固定数量高斯特征。这...
高斯生成(约1秒):在多视角图像的基础上,使用“Large Multi-View Gaussian Model”生成3D高斯分布。这个模型通过分析不同视角的图像来估计物体的3D结构。 网格生成(约1分钟):最后一步是将3D高斯分布转换成多边形网格,这个过程大约需要1分钟。网格是3D模型的一种表示方式,由多个多边形片组成,通常用于计算机图形和3D打印...
北京大学、南洋理工大学S-Lab和上海人工智能实验室联合研究的团队推出的大型多视角高斯模型(LGM),通过核心模块LargeMulti-ViewGaussianModel,在5秒内从单一视角图片或文本生成高质量3D物体。LGM解决了高效3D表征和高分辨率下的生成网络挑战,支持Text-to-3D和Image-to-3D任务,并提供Mesh转换方法,带来显著进展。
在技术上,LGM 核心模块是 Large Multi-View Gaussian Model。受到高斯溅射的启发,该方法使用一个高效轻量的非对称 U-Net 作为骨干网络,直接从四视角图片中预测高分辨率的高斯基元,并最终渲染为任意视角下的图片。 具体而言,骨干网络 U-Net 接受四个视角的图像和对应的普吕克坐标,输出多视角下的固定数量高斯特征。这...
该模型为 LGM,即 Large Multi-View Gaussian Model(大型多视角高斯模型),是一种创新的框架,用于从文本提示或单视图图像生成高分辨率的 3D 模型。由来自北京大学、南洋理工大学 S-Lab 和上海人工智能实验室的研究者在论文「LGM: Large Multi-View Gaussian Model for High-Resolution 3D Content Creation」中提出。