我目前正在开发一个 iOS 应用程序,该应用程序将 CoreImage 应用于相机供稿以拍摄照片和视频,但我遇到了一些障碍。
到目前为止,我一直在使用AVCaptureVideoDataOutput来获取样本缓冲区并使用 CoreImage 操作它们,然后显示一个简单的预览,以及使用它来捕获照片并保存它们。
当我尝试实现视频录制时,通过将 SampleBuffers 写入视频,因为我从AVCaptureVideoDataOutput收到它们,它的帧速率非常慢(可能是因为正在进行的其他图像相关处理)。
所以我想知道,是否有可能同时在同一个 AVCaptureSession 上进行 AVCaptureVideoDataOutput 和 AVCaptureMoveFileOutput ?
我试了一下,发现当我添加额外的输出时,我的 AVCaptureVideoDataOutput 停止接收信息。
如果我可以让它工作,我希望这意味着我可以简单地使用第二个输出以高帧速率录制视频,并在用户停止录制后对视频进行后期处理。
任何帮助将不胜感激。