24

我目前正在开发一个 iOS 应用程序,该应用程序将 CoreImage 应用于相机供稿以拍摄照片和视频,但我遇到了一些障碍。

到目前为止,我一直在使用AVCaptureVideoDataOutput来获取样本缓冲区并使用 CoreImage 操作它们,然后显示一个简单的预览,以及使用它来捕获照片并保存它们。

当我尝试实现视频录制时,通过将 SampleBuffers 写入视频,因为我从AVCaptureVideoDataOutput收到它们,它的帧速率非常慢(可能是因为正在进行的其他图像相关处理)。

所以我想知道,是否有可能同时在同一个 AVCaptureSession 上进行 AVCaptureVideoDataOutput 和 AVCaptureMoveFileOutput

我试了一下,发现当我添加额外的输出时,我的 AVCaptureVideoDataOutput 停止接收信息。

如果我可以让它工作,我希望这意味着我可以简单地使用第二个输出以高帧速率录制视频,并在用户停止录制后对视频进行后期处理。

任何帮助将不胜感激。

4

1 回答 1

4

这比你想象的要容易。

参见:AVCamDemo

  1. 使用 AVCaptureVideoDataOutput 捕获数据。
  2. 在录制之前创建一个新的调度队列,例如。录音队列:recordingQueue = dispatch_queue_create("Movie Recording Queue", DISPATCH_QUEUE_SERIAL);
  3. 在 captureOutput:didOutputSampleBuffer:fromConnection: 委托方法中,捕获 samplebuffer,将其保留,并在录制队列中,将其写入文件:

    -(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {    
    
        CFRetain(sampleBuffer);
    
        dispatch_async(recordingQueue, ^{
    
            if (assetWriter) {
    
                if (connection == videoConnection) {
                    [self writeSampleBuffer:sampleBuffer ofType:AVMediaTypeVideo];
                } else if (connection == audioConnection) {
                    [self writeSampleBuffer:sampleBuffer ofType:AVMediaTypeAudio];
                }
    
            }
    
            CFRelease(sampleBuffer);        
        });
    }
    
        - (void) writeSampleBuffer:(CMSampleBufferRef)sampleBuffer ofType:(NSString *)mediaType
        {
            CMTime presentationTime = CMSampleBufferGetPresentationTimeStamp(sampleBuffer);
    
            if ( assetWriter.status == AVAssetWriterStatusUnknown ) {
    
                if ([assetWriter startWriting]) {
                    [assetWriter startSessionAtSourceTime:presentationTime];
                } else {
                    NSLog(@"Error writing initial buffer");
                }
            }
    
            if ( assetWriter.status == AVAssetWriterStatusWriting ) {
    
                if (mediaType == AVMediaTypeVideo) {
                    if (assetWriterVideoIn.readyForMoreMediaData) {
    
                        if (![assetWriterVideoIn appendSampleBuffer:sampleBuffer]) {
                            NSLog(@"Error writing video buffer");
                        }
                    }
                }
                else if (mediaType == AVMediaTypeAudio) {
                    if (assetWriterAudioIn.readyForMoreMediaData) {
    
                        if (![assetWriterAudioIn appendSampleBuffer:sampleBuffer]) {
                            NSLog(@"Error writing audio buffer");
                        }
                    }
                }
            }
        }
    
于 2014-02-26T09:53:43.553 回答