我想使用 canvas 元素作为 webrtc 通信的视频部分的媒体流源,任何方向都会有帮助,在网上搜索,没有找到太多讨论这个话题的资源
*长背景故事*
问题是,我无法直接从相机发送视频,这是我在显示之前处理视频(一些图像处理内容,超出此问题的范围)的要求的一部分。
以前,在其他对等方的浏览器上<video>
,我没有使用标签直接显示视频,而是对隐藏的画布元素进行了一些处理,然后将详细信息复制到另一个画布(我使用了 settimeout 来保持绘图,这给出了illusion of live video
)。
现在,客户端希望在传输视频之前完成处理,所以我使用 webrtc 直接传递音频流(之前音频和视频都是通过 webrtc 发送的)。对于视频流,我有两种解决方案:
脚步:
在本地对等点处理视频,在隐藏的画布上绘制。容易的部分。
使用 timeout 重复捕获图像数据并传输
a) usingwebsockets( yes, goes through server)
,这带来了可怕的延迟并最终导致浏览器崩溃。
b) usingRTCDataChannel
,它的性能要好得多,但有时会无缘无故地失败。我还遇到了其他几个问题(例如,由于发送 jpeg 而不是 webp,所以使用了额外的带宽)。
另一个主要问题是因为我使用了超时:当我切换标签时,另一边的帧速率下降。
那么,有什么方法可以将隐藏的画布用作媒体流源,而不是我手动进行呢?