在近日于香港举办的全球图形学领域顶级学术会议SIGGRAPH Asia 2025上,一场备受瞩目的3D Gaussian Splatting Reconstruction Challenge(3DGS重建挑战赛)落下帷幕。中国科技企业摩尔线程凭借其自主研发的3DGS基础库LiteGS,在众多参赛队伍中脱颖而出,斩获银奖。
3D Gaussian Splatting(3DGS)作为一种新兴的3D场景表示与渲染技术,自2023年提出以来便引发了广泛关注。该技术以可参数化的3D高斯分布为核心,巧妙地平衡了画质、效率与资源占用之间的关系。与传统NeRF技术相比,3DGS在保持逼真渲染质量的同时,将渲染效率提升了数百倍甚至上千倍,并且在光线追踪、VR/AR实时渲染、多模态融合等多个方向展现出强大的适应性与扩展性。它通过数以百万计的各向异性三维高斯基元来精确表示三维场景,从而实现逼真的渲染效果,在自动驾驶、虚拟现实、数字孪生等领域蕴含着巨大的应用潜力。
然而,3DGS技术也面临着一些挑战。尽管其渲染速度极快,但训练过程却往往耗时较长,通常需要数十分钟甚至数小时,这成为制约其广泛应用的主要瓶颈。现有的优化方案大多仅从单一层面进行改进,难以系统性地解决训练过程中的性能制约问题。
为了攻克这一难题,摩尔线程自主研发了3DGS基础库LiteGS。该库首次实现了从底层GPU系统、中层数据管理到高层算法设计的全链路协同优化。在GPU系统层面,摩尔线程创新性地提出了基于“One Warp Per Tile”原则的“Warp-Based Raster”新范式。这一范式将梯度聚合简化为一次Warp内归约,并结合扫描线算法与混合精度策略,大幅降低了梯度计算开销,同时实现了高效的像素级统计能力。在数据管理层,引入了“聚类-剔除-压缩”流水线,借助Morton编码以极低开销对高斯基元进行动态空间重排,显著提升了数据局部性,减少了缓存失效与Warp分支。在算法设计层,摒弃了原有模糊的度量指标,采用更为鲁棒的像素不透明度梯度方差作为致密化的核心判据,能够精准识别欠拟合区域,其轻量化计算直接受益于底层光栅化器的高效统计支持。
在本次3DGS重建挑战赛中,参赛团队面临着严峻的任务考验。他们需要在60秒内,基于主办方提供的真实终端视频序列(时长10 - 30秒)、存在误差的相机轨迹以及终端SLAM点云,在极短时间内完成完整的3DGS高质量重建。摩尔线程AI团队以参赛编号“MT-AI”进入决赛阶段,在重建精度与效率两项关键指标上表现出色。其平均PSNR达到27.58,位列前三;重建耗时仅34秒,领先多数参赛队伍。凭借在3DGS算法构建能力以及软硬件协同优化方面的优势,摩尔线程最终荣获二等奖(银牌)。
通过系统与算法的协同优化,LiteGS在训练效率与重建质量上均取得了显著领先。当达到与当前质量最优方案同等水平时,LiteGS可实现10.8倍的训练加速,且参数量减少一半以上;在相同参数量下,LiteGS在PSNR指标上超出主流方案0.2 - 0.4 dB,训练时间缩短3.8至7倍。针对轻量化模型,LiteGS仅需原版3DGS约10%的训练时间与20%的参数量,即可实现同等质量。目前,LiteGS已在GitHub平台全面开源,为全球开发者提供了强大的工具支持。






