2

我希望能够(实时)将 iPhone 相机中的帧/视频流式传输到互联网。我在一个线程(来自 iPhone 的流式视频)中看到,可以使用 AVCaptureSession 的 beginConfiguration 和 commitConfiguration。但我不知道如何开始设计这个任务。已经有很多关于如何将视频流式传输到 iPhone 的教程,而这实际上并不是我正在寻找的。

你们能给我任何可以帮助我进一步的想法吗?

4

1 回答 1

3

这是一个棘手的问题。你应该能够做到,但这并不容易。

一种不会直播的方法(不满足您的需求,但值得一提)是从相机捕获并将其保存到视频文件中。请参阅 AV Foundation 指南了解如何做到这一点。保存后,您可以使用 HTTP Live Streaming 分段器生成正确的分段。Apple 有适用于 Mac OSX 的应用程序,但也有一个开源版本,您可以适应 iOS。最重要的是,您还必须运行一个 http 服务器来服务这些细分市场。你可以适应很多http服务器。

但要做到这一点,首先正如您已经发现的那样,您需要从相机中收集帧。一旦你有了那些你想将它们转换为 h.264 的东西。为此,您需要 ffmpeg。基本上你把图像推到 ffmpeg 的 AVPicture 上,制作一个流。然后,您需要管理该流,以便实时流分段器将其识别为实时流 h.264 设备。我不知道该怎么做,这听起来像是一些严肃的工作。完成此操作后,您需要有一个 http 服务器,为该流提供服务。

实际上可能更容易的是使用基于 RTP/RTSP 的流。RTP 的开源版本涵盖了该方法,而 ffmpeg 完全支持该方法。它不是http直播,但它会运行得很好。

于 2011-02-19T07:07:03.563 回答