5

我正在开发一个基于 Swift 的 macOS 应用程序,我需要在其中捕获视频输入,但不将其显示在屏幕上......而不是显示视频,我想将缓冲的数据发送到其他地方进行处理,并最终显示它在SceneKit场景中的一个物体上。

我有一个CameraInputprepareCamera方法的类:

    fileprivate func prepareCamera() {
        self.videoSession = AVCaptureSession()
        self.videoSession.sessionPreset = AVCaptureSession.Preset.photo

        if let devices = AVCaptureDevice.devices() as? [AVCaptureDevice] {
            for device in devices {
                if device.hasMediaType(AVMediaType.video) {
                    cameraDevice = device

                    if cameraDevice != nil  {
                        do {
                            let input = try AVCaptureDeviceInput(device: cameraDevice)


                            if videoSession.canAddInput(input) {
                                videoSession.addInput(input)
                            }


                           } catch {
                            print(error.localizedDescription)
                        }
                    }
                }
            }

            let videoOutput = AVCaptureVideoDataOutput()
            videoOutput.setSampleBufferDelegate(self as AVCaptureVideoDataOutputSampleBufferDelegate, queue: DispatchQueue(label: "sample buffer delegate", attributes: []))
            if videoSession.canAddOutput(videoOutput) {
                videoSession.addOutput(videoOutput)
            }
        }
    }

还有一个startSession启动AVCaptureSession会话的方法:

fileprivate func startSession() {
    if let videoSession = videoSession {
        if !videoSession.isRunning {
            self.videoInputRunning = true
            videoSession.startRunning()
        }
    }
}

我还实现AVCaptureVideoDataOutputSampleBufferDelegate了 ,我打算在其中捕获以CMSampleBuffer供以后使用:

extension CameraInput: AVCaptureVideoDataOutputSampleBufferDelegate {

    internal func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) {
        print(Date())
    }
}

但是,永远不会调用委托。这是我必须显示视频输出才能调用它的情况吗?

4

1 回答 1

7

您的任何问题都与您是否(或是否)显示捕获的视频的预览有关。

如果你使用的是 Swift 4(看起来你是),你想要实现的委托方法签名不是captureOutput(_:didOutputSampleBuffer:from:),它是这样的:

optional func captureOutput(_ output: AVCaptureOutput, 
              didOutput sampleBuffer: CMSampleBuffer, 
                     from connection: AVCaptureConnection)

无关提示:

  • 命名空间常量意味着如果你愿意,你可以更简洁;例如videoSession.sessionPreset = .photo

  • AVCaptureDevice.devices()已弃用。与其自己调用它并遍历设备,不如直接询问AVCaptureDevice您想要的设备类型

    let captureDevice = AVCaptureDevice.default(.builtInWideAngleCamera, 
                                           for: .video, position: .back)
    
  • 如果您的类已经声明符合协议as,则不需要强制转换。videoOutput.setSampleBufferDelegate(self as AVCaptureVideoDataOutputSampleBufferDelegateAVCaptureVideoDataOutputSampleBufferDelegate


最后,如果您只是想将来自摄像机的实时视频映射到 SceneKit 场景的某个部分,请注意,在 iOS 11 中,您可以直接将 an 分配给AVCaptureDevicean SCNMaterialProperty——contents无需抓取、处理和移动像素自己缓冲。

于 2017-12-05T22:46:10.743 回答