概述
我想使用自定义视频源通过 WebRTC Android 实现来直播视频。如果我理解正确,现有的实现仅支持 Android 手机上的前置和后置摄像头。在这种情况下,以下类是相关的:
目前,为了在 Android 手机上使用前置摄像头,我正在执行以下步骤:
CameraEnumerator enumerator = new Camera1Enumerator(false);
VideoCapturer videoCapturer = enumerator.createCapturer(deviceName, null);
VideoSource videoSource = peerConnectionFactory.createVideoSource(false);
videoCapturer.initialize(surfaceTextureHelper, this.getApplicationContext(), videoSource.getCapturerObserver());
VideoTrack localVideoTrack = peerConnectionFactory.createVideoTrack(VideoTrackID, videoSource);
我的场景
我有一个回调处理程序,它从自定义视频源接收字节数组中的视频缓冲区:
public void onReceive(byte[] videoBuffer, int size) {}
我怎样才能发送这个字节数组缓冲区?我不确定解决方案,但我想我必须实施 custom VideoCapturer
?
现有问题
这个问题可能是相关的,虽然我没有使用 libjingle 库,只有本机 WebRTC Android 包。
类似的问题/文章:
- 适用于 iOS 平台,但不幸的是我无法提供答案。
- 用于原生 C++ 平台
- 关于本机实现的文章