3

我有一个带有 uv4l 驱动程序和本机 uv4l-WebRTC 模块的树莓派设置。到目前为止,我可以看到视频流在我的浏览器上运行良好,但我现在想做的是能够同时将视频流式传输到浏览器,并将一些帧传递给我的 opencv-python 程序。

我能够通过使用以下 python 代码测试是否可以获取视频的一些数据:

import numpy as np
import cv2

imageMat = np.array((3,4,3), np.uint8)
cap = cv2.VideoCapture()
cap.open('https://<IP ADDRESS:8080>/stream/video.mjpeg')
cap.read(imageMat)

如果我将 URL 放在浏览器上面的示例代码中,这将起作用。这个 URL 是由制作 uv4l 驱动程序的人提供的,但问题是我实际上希望能够使用我的自定义网页的视频,而不是从这个默认 URL 流式传输的视频。

我从其他帖子中看到,我可以通过在画布元素上绘制帧,然后将其转换为 Blob,然后通过 websocket 发送它来传递帧,但这意味着我必须打开另一个 websocket(使用 python 这个时间)但我不太确定这是否是正确的方法。我认为通过使用 UV4L,我可以轻松获取帧,同时仍然能够流式传输视频。

4

0 回答 0