0

我正在使用 Unity 2019.4 使用 HoloLens2 开发 AR 应用程序。

现在我需要从 Unity-Project 中获取 HoloLens2 相机的原始像素数据以及重新渲染的 3d 内容。

我想将此像素数据作为实时视频流通过网络以低延迟(1 秒或更短)和至少 30 fps 的速度发送到显示接收到的视频的外部应用程序。

到目前为止,我遇到了 Windows Media Capture API,似乎我可以在其上添加 MRC 视频效果,以使用 Unity 的全息图增强视频流。

这是从我的统一 UWP 应用程序捕获实时视频流的最佳方式,还是有更好、可能更简单的方式?更重要的问题是,是否可以使用这种方法以足够低的延迟来流式传输视频。

4

1 回答 1

0

MRC 应该是统一方面最原生的解决方案。

FMETP STREAM 还支持 HL2 的低延迟流,作为跨平台解决方案。

统一方面没有太多解决方案,这些都是我尝试过的。

PS:但是,您似乎可能会寻求建议而不是与编程相关的问题。

于 2021-03-29T04:28:11.667 回答