1

我正在开发一个安卓应用程序,用户可以使用他/她的安卓相机开始直播。我手头有资源AWSGCP阅读后我的理解是,

  1. RTMP我必须通过某些协议(或HLS等)向某些服务器流式传输/发布,无论 android-camera 选择什么

  2. 我必须设置服务器,该服务器将提取此输入源并将其打包并存储为可以在移动/网络浏览器上流式传输/使用的形式(基本上是一个 URL),我相信AWS's MediaLiveMediaPackage等等。资源应该这样做。

  3. 我可以使用这个 URL 是 Android 上的播放器的 MediaSource(如ExoPlayer

我的问题是我在第一部分找不到好的文档。我发现了这个https://github.com/bytedeco/javacv,这似乎不是生产级的工作。在尝试第二部分时,在 AWS 上创建 MediaLive 频道时,我被要求将频道指向 2 个目的地(我不知道这意味着什么),这让我怀疑我对这个过程的理解。我正在寻找一些带有官方文档的框架程序,以了解如何实现这一点。

编辑1:

对于投入生产部分,我正在试验这个答案。https://stackoverflow.com/a/29061628/3881561

编辑2:

我使用https://github.com/ant-media/LiveVideoBroadcaster将视频源发送到 RTMP 服务器。我在 MediaLive 中创建了 RTMP 推送输入源和一个带有输出的通道 - 存档(将 .ts 文件存储在 S3 中)。现在流程正在运行,如何修改此架构以允许多个用户创建实时流媒体?

4

0 回答 0