1

我正在使用重播套件来录制屏幕,我想要实现的是在使用 webRTC SDK 进行通话时使用音频录制或捕获屏幕。我使用了来自 github 的 appRTC。

我想我可以通过 AVCaptureSession 实现这一点!因为我要排除 replayKit 没有相关代码可以提供。

4

1 回答 1

1

这是具有挑战性的,但可以做到。我无法提供详细的答案,因为它是我们的应用程序和我们正在构建的内容的核心,而且代码很多,但希望知道它可以完成会有所帮助。

给你几点建议:

  1. 看看http://cocoadocs.org/docsets/GoogleWebRTC/1.1.20266/Classes/RTCCameraVideoCapturer.html这将让您访问 WebRTC 正在使用的 AVCaptureSession,您可以成功地将您的 AVAssetWriter 连接到此。
  2. 查看 RTCVideoRenderer 协议参考。http://cocoadocs.org/docsets/Quickblox-WebRTC/2.2/Protocols/RTCVideoRenderer.html它将使您能够在 WebRTC 呈现帧时获取帧并在将它们发送回 WebRTC 之前对其进行处理。您需要将收到的 RTCI420Frame 转换为 CVPixelBufferRef(这是 YUV420 到 RGB 的转换)。
于 2016-10-28T20:12:35.433 回答