我正在开发一个安卓应用程序,用户可以使用他/她的安卓相机开始直播。我手头有资源AWS
。GCP
阅读后我的理解是,
RTMP
我必须通过某些协议(或HLS
等)向某些服务器流式传输/发布,无论 android-camera 选择什么我必须设置服务器,该服务器将提取此输入源并将其打包并存储为可以在移动/网络浏览器上流式传输/使用的形式(基本上是一个 URL),我相信
AWS's MediaLive
,MediaPackage
等等。资源应该这样做。我可以使用这个 URL 是 Android 上的播放器的 MediaSource(如
ExoPlayer
)
我的问题是我在第一部分找不到好的文档。我发现了这个https://github.com/bytedeco/javacv,这似乎不是生产级的工作。在尝试第二部分时,在 AWS 上创建 MediaLive 频道时,我被要求将频道指向 2 个目的地(我不知道这意味着什么),这让我怀疑我对这个过程的理解。我正在寻找一些带有官方文档的框架程序,以了解如何实现这一点。
编辑1:
对于投入生产部分,我正在试验这个答案。https://stackoverflow.com/a/29061628/3881561
编辑2:
我使用https://github.com/ant-media/LiveVideoBroadcaster将视频源发送到 RTMP 服务器。我在 MediaLive 中创建了 RTMP 推送输入源和一个带有输出的通道 - 存档(将 .ts 文件存储在 S3 中)。现在流程正在运行,如何修改此架构以允许多个用户创建实时流媒体?