1

我目前正在尝试构建一个 WebRTC 流式传输架构,该架构包含多个用户在同一个“房间”中从他们的相机流式传输内容,以及服务器端“记录”传入视频数据包的 SFU / MCU,将它们合并为一个图像并重新- 将它们作为 RTMP 或 HLS 分发给查看器,以增加可扩展性。

在对此进行一些初步研究后,Janus Gateway 似乎很适合这个,因为它在整个空间中被广泛采用 + 他们(看似)可扩展的插件架构。因此,我目前正在尝试找出适合我的用例的推荐架构是什么样的。我查看了以下插件:

虽然 Janus 和 Streaming 插件似乎是在房间内的一组脚轮中获得广播方面的良好开端,但我正在尝试拼凑如何将不同的视频源组合成一个组合的视频源(例如,如果有 2 个施法者处于活动状态)并将最终结果重新传输为针对 HLS 等广播消费优化的内容。我可以想象的一些方法:

  • 实现自定义 Janus 插件,对网关本身的传入缓冲区进行转码
  • 通过 RTP 将传入的数据包转发到转码服务器
    • 在这种特定情况下,我不确定最好的实施方式是什么?视频帧是不同的轨道吗?我可以将它们全部流式传输到同一个端口并让ffmpeg或类似的东西为我处理合并吗?
4

0 回答 0