PixVerse 更新 R1 实时世界模型:共享世界与个性化虚拟形象
PixVerse 升级 R1:支持个性化虚拟形象、持续运行的共享世界,且无会话时长上限。实时世界模型更新已上线 realtime.pixverse.ai。
用户首次可以「本人」进入 AI 生成的世界,与他人实时共同探索,且不设会话时长上限。
新加坡,2026 年 4 月 1 日 — PixVerse 今日宣布其实时世界模型 R1 迎来重要升级。R1 于 2026 年 1 月推出,是全球首个实时世界模型,将视频从固定成片变为可即时响应用户输入的连续交互流。此次更新让这一世界再进一步。
用户现在可以创建自己的数字化形象,置入新生成的世界中,与他人实时分享这一体验,且不设会话时长上限。
无限延展的交互世界
R1 可根据文本提示生成连续、交互式的视觉环境。与产出固定片段的传统视频生成不同,R1 在用户输入展开的过程中持续生成无限流,塑造可被引导、导演与探索的世界。这仍是 R1 体验的核心。
以「你」的身份步入数字世界
用户现可通过全新的 Avatars(虚拟形象)页签创建个性化数字分身。上传正面、侧面及背面共一至三张照片,即可生成代表用户存在于世界中的虚拟角色。虚拟形象会对移动、位置与动画等交互做出动态响应,让用户在生成环境中拥有可识别的个人身份。
从单人体验到共享体验,再无时长束缚
此前,R1 的单人会话最长为五分钟。此次更新在共享世界场景下完全取消该限制——共享世界可持续运行,不设会话上限,只要用户在场,世界就会不断演变。
R1 现通过持续的共享直播支持多用户参与。用户将提示词提交至公共直播流,每条提示会随画面滚动对所有参与者可见。当 AI 采纳某条提示时,会立即在共享环境中将其呈现为视频,并配合实时视觉效果。直播聊天层让用户在演进中的画面旁互动,在参与者与生成内容之间形成动态反馈闭环。
其结果是:共享数字世界的演变不再依赖单一用户输入,而是汇聚所有在场者的共同输入。
R1 实时世界模型
以下三大核心组件,使大规模、连续的多用户视频生成成为可能:
- Omni Native Multimodal Foundation Model(全模态原生基础模型): 在底层将文本、图像、音频与视频作为单一统一流处理,而非分别处理各模态,从而在全部模态上实现连贯的实时生成。
- Consistency-aware Autoregressive Framework(一致性自回归框架): 确保生成序列在时间维度上保持连贯,实现无需重置的连续视频。
- Instantaneous Response Engine(瞬时响应引擎): 精简处理步骤,实现 1080p 实时生成与毫秒级延迟。
自成立以来,PixVerse 始终保持每两到三个月发布模型更新的节奏。此次 R1 扩展距离 R1 首发不足三个月,延续了这一承诺。
展望未来,PixVerse 将着力优化用户在交互式视频生成新模式下的体验;随着技术成熟,团队也在探索更广泛的用例,包括娱乐与游戏等领域更具沉浸感的应用。
在限定时间内,所有 PixVerse 用户均可免费使用 R1,访问 realtime.pixverse.ai。
本更新是 PixVerse 本周「Power-Up Week」多项发布之一,此前已于 3 月 30 日推出 V6,并于 3 月 31 日发布 Team Plan、Mini Apps 与 PixVerse Skills。
关于 PixVerse
PixVerse 是全球 AI 视频生成平台,获得逾 175 个国家和地区、超过 1 亿创作者与企业的信赖。最新模型 V6 在流畅运动与电影级画质基础上,进一步强化精准镜头控制、富有表现力的角色演绎与一键商业成片能力。2026 年 1 月,PixVerse 推出 R1——全球首个实时世界模型,将视频变为无限延展、连续且可交互的流。团队分布于亚洲与美国;PixVerse 创立于 2023 年,致力于让视频成为人类表达的通用语言。2026 年 3 月,PixVerse 完成 C 轮融资,跻身独角兽行列。更多信息请访问 pixverse.ai。
媒体联络
Robyn Tan
全球公关负责人,PixVerse
media@pixverse.ai