问题标签 [uv4l]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
docker - 在 Docker 容器中运行 uv4l - 不注册设备节点
我正在尝试在 Docker 容器中运行uv4l 。这是 u4vl 项目的简短描述:
跨平台,用于真实或虚拟视频输入和输出设备的用户空间驱动程序(与内核驱动程序完全没有外部差异),以及其他可插入的后端或前端。
所以在 docker 容器内,u4vl 会尝试注册一个用户空间驱动。在我的情况下,将 Raspberry Pi 相机暴露为/dev/video0
.
当我运行命令时:
uv4l --auto-video_nr --driver raspicam --width 1080 --height 720 --encoding mjpeg --server-option '--port=9000'
我收到一条消息说<notice> [core] Registering device node /dev/video0
,但是当我尝试这样做时ls /dev
,没有/dev/video0
设备。
--privileged
我使用命令中的标志以特权模式运行容器docker run
。
为了“允许”它创建用户空间驱动程序和新设备,我还需要在容器内做些什么吗?
我绝不是 Linux 专家,所以如果我的术语/理解有点偏离,请原谅我。
raspberry-pi - 如何从远程 webrtc 摄像头录制视频?
我有一个通过 uv4l2 有 webrtc 的树莓派。太棒了!我想在服务器上录制来自摄像机的视频。这是您的基本监控摄像头设置...具有大量存储空间的中央 linux 服务器、远程 IP 摄像头等。我已经阅读了几十页,但仍然无法弄清楚。我尝试了所有这些 kurento mumbo jumbo 但这一切都很糟糕,没有呕吐物。它永远不会到达那里。抓取 rpi 视频并将其转储到磁盘的命令是什么?请帮忙!!!
raspberry-pi - 桌面流式传输(使用 WebRTC 将实时桌面和音频流式传输到浏览器)错误
我想加载 xscreen 驱动程序。所以我打开了一个终端并输入了以下命令:
这是正常的结果:
但我收到了这条信息:
我的问题是什么?请帮帮我!
raspberry-pi - 桌面流(Raspberry pi Live Desktop & Audio Streaming to the browser with WebRTC)
我想加载 xscreen 驱动程序。所以我打开了一个终端并输入了以下命令:
这是正常的结果:
但我收到了这条信息:
我的结果没有这部分:
我的问题是什么?请帮我!
webrtc - ulv4-webrtc 通过对等连接从树莓派流式传输到 iOS 应用程序
我有一个带有摄像头的树莓派。我喜欢通过点对点连接将视频流式传输到 iOS 应用程序。
我在树莓派上安装了 uv4l,但我不知道如何从 iOS 应用程序启动对等连接。
树莓派连接到家庭网络,我需要能够访问家庭网络之外的视频流。我不想在路由器上进行端口转发。
有人可以提供有关如何设置的分步说明吗?
raspberry-pi - 解释通过 uv4l-webrtc 数据通道发送到 raspberry-pi 的按键
如果这没有意义,我深表歉意,因为我仍然是使用树莓派的新手,这是我第一次在 StackOverflow 上发帖。
我正在制作一个网络应用程序,它可以让我在树莓派之间传输视频,同时还可以让我发送密钥代码。发送的键码最终会让我控制无人机上的伺服系统。在搜索了互联网之后,我发现流式传输 2 路视频的最简单方法是使用 uv4l,因此我将它与 uv4l-webrtc 一起安装在我的树莓派上。我将一些 GPIO 引脚连接到飞行控制器,并使用 pigpio 向其发送 PWM 信号,然后我使用 CleanFlight 对其进行监控。
现在,如果我使用VNC远程访问 pi,我可以使用 python 脚本通过按键操作飞行控制器的滚动、俯仰等,但我希望最终能够通过我的自定义网页来做到这一点由 uv4l-server 提供服务。我正在尝试使用 WebRTC 数据通道,但我无法理解如何识别通过数据通道发送的消息。我知道发起视频通话时会打开数据通道,并且我已尝试在此链接中进行测试以查看我是否确实可以将密钥代码发送到 pi(并且我可以)。
我现在的问题是我不知道那些发送的消息去哪里了,也不知道如何获取它们,所以我可以将它们合并到我的 python 脚本中。我需要制作一个服务器来监听发送到 pi 的键码吗?
tl; dr 我在树莓派上有一个 python 脚本,可以使用按键和一个单独的网页来控制飞行控制器上的伺服系统,该网页使用 WebRTC 流式传输视频,但我不知道如何使用 WebRTC 数据通道将它们组合在一起。
感谢@adminkiam 的解决方案。这是现在侦听套接字的 python 脚本版本。它本质上是制作 pigpio 的人对该代码的一种变体:
video-streaming - Raspberry PI 3 - 升级后带 raspicam 驱动程序 KO 的 UV4L
我正在使用 UV4L 服务器和 Raspicam 驱动程序开发嵌入式汽车闭路电视。运行命令
在我升级 UV4L 软件之前一直运行良好。视频流现在已冻结,我什至无法使用 kill -9 终止该工作。
我已经在 3 个不同的树莓派(ARMV71)上检查了这一点,因为所有视频流现在都是 KO 我很确定问题是从
至
因此依赖于 uv4l-raspicam 1.9.50 -> 1.9.53 和/或 uv4l-server 1.1.97 -> 1.1.98 升级。
注意:相机没问题,因为我可以使用 raspivid 看电影...
有没有人已经经历过这个..以及如何解决?..我没有成功尝试回滚版本
raspberry-pi - UV4L (RPi) - 具有与“双向音频/视频”相同功能的自定义网页
我需要在 Raspberry Pi 上创建一个自定义网页,使其具有与 UV4L 主页“http://{RPi IP 地址}:8080/stream/webrtc”的第一个选项相同的功能我如何拨打电话(视频和音频)从使用 javascript 的网页到 RPI?谢谢。
raspberry-pi - UV4L (RPi) - 与 Janus WebRTC 的会议
我尝试了“使用 Janus WebRTC 网关进行音频/视频会议”页面。除了将“观看其他参与者的实时音频和视频”设置为“是”之外,我将所有内容都保留为默认值。然后我从 Chrome 浏览器(我的笔记本电脑)加入了位于“ https://janus.conf.meetecho.com/videoroomtest.html ”的 Janus 视频室页面。我可以在页面上看到来自笔记本电脑摄像头的流媒体,但看不到来自 RPi 的流媒体。尽管它显示了每秒都在变化的 RPI 摄像机的流波特率,但它不显示视频。此外,当我说话时,我从 RPi 扬声器听到我的声音,因此 RPi 肯定已连接,但无法正确传输视频。任何想法?提前致谢。
这也是我的 raspicam.conf:
opencv - 在使用 WebRTC 和 UV4L 驱动程序进行流式传输时为 OpenCV-Python 传递视频帧
我有一个带有 uv4l 驱动程序和本机 uv4l-WebRTC 模块的树莓派设置。到目前为止,我可以看到视频流在我的浏览器上运行良好,但我现在想做的是能够同时将视频流式传输到浏览器,并将一些帧传递给我的 opencv-python 程序。
我能够通过使用以下 python 代码测试是否可以获取视频的一些数据:
如果我将 URL 放在浏览器上面的示例代码中,这将起作用。这个 URL 是由制作 uv4l 驱动程序的人提供的,但问题是我实际上希望能够使用我的自定义网页的视频,而不是从这个默认 URL 流式传输的视频。
我从其他帖子中看到,我可以通过在画布元素上绘制帧,然后将其转换为 Blob,然后通过 websocket 发送它来传递帧,但这意味着我必须打开另一个 websocket(使用 python 这个时间)但我不太确定这是否是正确的方法。我认为通过使用 UV4L,我可以轻松获取帧,同时仍然能够流式传输视频。