我有构建 iOS 应用程序的经验,但没有视频经验。我想构建一个将实时视频流式传输到服务器的 iPhone 应用程序。一旦在服务器上,我会将该视频实时传送给消费者。
我已经阅读了相当多的材料。有人可以告诉我以下是否正确并为我填空。
- 要在 iPhone 上录制视频,我应该使用 AVFoundation 类。使用 AVCaptureSession 委托方法 captureOutput:didOutputSampleBuffer::fromConnection 时,我可以访问每一帧视频。现在我有了视频帧,我需要对帧进行编码
- 我知道 Foundation 类仅通过 AVAssetWriter 提供 H264 编码,而不是通过轻松支持流式传输到 Web 服务器的类。因此,我只能将视频写入文件。
- 我读过其他帖子说他们可以使用两个 AssetWritter 写入 10 秒块,然后 NSStream 将这 10 秒块写入服务器。有人可以解释如何编码使用两个 AVAssetWriters 一起工作来实现这一点。如果有人有代码,请分享。