GitHub · 世界模型

英伟达发布世界生成模型 Lyra 2.0

英伟达发布 Lyra 2.0 世界生成模型,将视频生成与 3D 重建结合,解决了 AI 生成 3D 世界时场景持久一致性的难题。模型支持单张图片启动,用户可在场景中移动时持续生成新内容,并能返回已探索区域。通过逐帧 3D 几何路由缓解空间遗忘,利用自增强训练对抗长程漂移,视觉质量与 3D 一致性表现良好。生成的 3D 世界可直接导出为 3DGS 和网格,已开源。

域名
github.com
评分
5 · 重大发布
发布
2026-04-16
英伟达发布世界生成模型 Lyra 2.0

导读

NVIDIA 发布 Lyra 2.0 世界生成模型,让 AI 能够边走边生成 3D 世界,解决了场景持久性 问题。Lyra 系列是 NVIDIA Research 的世界模型研究项目,2.0 是时隔半年的重大更新。

传统世界生成模型的问题是当用户在场景中移动到不同位置时,模型会"忘记"之前生成的内 容,重新生成会出现不一致。Lyra 2.0 引入了显式的场景记忆机制,每次生成的内容被编码 存储,用户回到之前的位置会看到一致的场景。这让"无限漫游"成为可能。

应用方向是 AI 训练数据生成(为 embodied AI 提供无穷多样的训练环境)、游戏内容自动 生成、VR 沉浸式体验。代码在 NVIDIA Research 仓库开源,配套 Cosmos 世界模型平台。 这条研究路线与 DeepMind Genie、Tencent HY-World 在世界模型方向上形成三足鼎立。

原文摘要

标签 世界模型 产品名 Lyra 2.0 分类 开源 摘要 英伟达发布了Lyra 2.0世界生成模型,结合视频生成和3D重建,允许AI在移动中持续生成3D世界,解决场景持久一致性问题。支持单图启动,渐进式生成和交互探索,视觉质量和3D一致性表现良好,可导出为3DGS和网格 收录时间 2026/04/16 网址 github.com/nv-…Lyra-2 岗位辅助 通用 行业 通用 2 more properties 时隔半年,英伟达发布了最新世界生成模型:Lyra 2.0,让AI能边走边生成3D世界,解决了场景持久一致问题 它把视频生成和3D重建结合,用视频生成保证视觉质量,用逐帧3D几何做信息路由来缓解空间遗忘,再通过自增强训练解决长程漂移问题 单图启动,一张图片生成完整3D世界 渐进式生成+交互探索,在场景中移动时持续生成新内容,可以回头重新探索已经走过的区域,也可以走向未观测区域,非一次生成,边走边建 可以直接导出为3DGS和网格 从给出的效果看,视觉质量(画面真实感、细节)以及3D一致性上感觉还可以 博客:https://research.nvidia.com/labs/sil/projects/lyra2/ github:https://github.com/nv-tlabs/lyra/tree/main/Lyra-2