4

这个比较棘手...

我正在尝试在 iOS 上通过网络流式传输视频 (H264)。但是,我通过远程服务器的开放套接字将视频数据放入缓冲区(使用 CocoaAsyncSocket),因此我没有可用于创建 AVAsset 或 MPMoviePlayer 的视频 URL。视频是实时流,因此如果有任何不同,数据将不断出现(即没有设置持续时间)。

我不得不这样做,因为服务器是 RTSP 服务器。我已经编写了自己的 RTSP 客户端来发送命令和接收响应,现在我正在尝试对来自连接的视频数据做一些有用的事情。

关于如何播放此视频的任何想法?目前我唯一能想到的是以某种方式保存到文件并加载它(但我不知道它是如何工作的,因为我将不断加载新数据),或者以某种方式手动执行它像ffmpeg。不,不幸的是我不能让服务器做 HTTP Live Streaming。

任何帮助将不胜感激!

4

1 回答 1

0

我还没有深入研究 AVFoundation,但是您可以通过创建一个AVAsset带有AVAssetWriter. 您提供AVAssetWriter一个实例,AVAssetWriterInput该实例获取CMSampleBuffer数据并将其打包以用于AVAssetWriter.

基于 的文档AVAssetWriterInput它旨在从“实时源”获取数据。

我希望我能提供更多帮助,但希望这将为您指明正确的方向。

于 2011-01-10T23:54:02.617 回答