3

我想通过网络将 rgb 帧(实时)数据作为视频视频流传输到浏览器(chrome/firefox)中。

所以我完成了 rgb -> yuv ->yv12 -> vp8 转换。我可以在本地播放 vp8 视频,看起来不错。

现在我需要能够将此数据提供给 webrtc,以便其他“客户端”可以看到这一点。

现在这可行吗?

我打算将 vp8 包装在 webm 视频文件周围,但不写实际文件长度,因为我不知道长度,因为它是实时流式传输并在浏览器上创建标签并开始提供数据。(我以前用 Theora 做过这个,“假装流,肯定有点慢,而且是 TCP,但它有延迟工作)。

或者我要将数据提供给 webrtc。我什至不知道api是否允许这样的事情。我可能需要破解一下。

回顾:进程 A 创建一个 NxM rgb 视频并将其写入其缓冲区。进程 B 通过 IPC 读取该缓冲区并将其编码为 VP8 ,进程 B 将其发送到带有 VP8 在 webm 或 webRtc 中的浏览器。

4

1 回答 1

1

据我能够找到研究相关情况,这是不可能的。视频只能来自系统上配置的设备(网络摄像头、音频等)。我相信在我不久前读过的提议的规范草案中是可能的,但我们还没有。我知道他们正在努力允许从网络音频API 访问,但我不确定当前状态。

于 2013-12-19T10:54:29.250 回答