0

我正在涉足 WebVR 世界。我正在开发一个基本的应用程序,其中 CanonJS 用于物理,Threejs 用于渲染。

据我了解,我的应用程序目前的架构是使用 NPM/Webpack 将我的应用程序转换并捆绑到简洁的 JS 文件中,然后将其提供给我的 VR 设备。一旦为 VR 设备提供了这个 JS,它就会开始在任何浏览器中执行它并使用 WebVR API 来处理事件。这包括所有物理和图形处理。

我承认,我的设备(带有 Cardboard 的 OnePlus7)的计算能力非常强大。尽管如此,我想了解

  1. 为什么这些库在客户端运行?处理服务器端(可能使用 GPU)然后简单地为客户端提供它需要渲染的两个帧不是更有效吗?我的猜测是延迟,但我想检查一下。 https://developer.mozilla.org/en-US/docs/Web/API/WebVR_API/Concepts#latency

  2. 服务器端如何维护多人世界状态?是否有任何此类示例应用程序?

4

0 回答 0