我想通过网络将 rgb 帧(实时)数据作为视频视频流传输到浏览器(chrome/firefox)中。
所以我完成了 rgb -> yuv ->yv12 -> vp8 转换。我可以在本地播放 vp8 视频,看起来不错。
现在我需要能够将此数据提供给 webrtc,以便其他“客户端”可以看到这一点。
现在这可行吗?
我打算将 vp8 包装在 webm 视频文件周围,但不写实际文件长度,因为我不知道长度,因为它是实时流式传输并在浏览器上创建标签并开始提供数据。(我以前用 Theora 做过这个,“假装流,肯定有点慢,而且是 TCP,但它有延迟工作)。
或者我要将数据提供给 webrtc。我什至不知道api是否允许这样的事情。我可能需要破解一下。
回顾:进程 A 创建一个 NxM rgb 视频并将其写入其缓冲区。进程 B 通过 IPC 读取该缓冲区并将其编码为 VP8 ,进程 B 将其发送到带有 VP8 在 webm 或 webRtc 中的浏览器。