问题标签 [gstreamer-0.10]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
video-streaming - 使用 gstreamer 和 RTSP 服务器在 imx6 板上流式传输视频
我正在开发 yocto 项目 imx6 板,并且在视频流、gstreamer 和 RTSP 服务器上成功安装了问题。
在这个命令之后
我收到如下错误:
如果有人有想法,请告诉我。
ubuntu-14.04 - pocketsphinx 语音识别 - 安装 gconf
我使用的是 ubuntu 14.04,最近刚刚安装了 pocketsphinx 包。当我尝试运行示例 robocup.launch 文件时,我收到一条错误消息,指出 gconfaudiosrc 不是元素。因此,当我尝试 sudo apt-get install gstreamer0.10-gconf 时,我收到以下错误:
E: 找不到包 gstreamer0.10-gconf
E:通过正则表达式“gstreamer0.10-gconf”找不到任何包
关于我能做什么的任何建议?
gstreamer - gst-launch-0.10 没有与 alsa 和 hdmi 同步的音频
我正在研究 imx 6DualLite。
我无法添加或编辑系统库。
我必须从 hdmi 和扬声器播放音频文件。
这是我正在使用的管道:
问题是扬声器的音频与hdmi的音频不同步
我已经尝试添加
gstreamer - 如何使用 GStreamer 0.10 将 mp4 filesrc 流式传输到 rtspsink
我必须使用 gstreamer 0.10 并尝试流式传输 mp4 文件。
为此我尝试了
gst-launch-0.10 文件rc location=./test.mp4 !qtdemux !队列 !h264解析!视频/x-h264,映射=/流!udpsink rtsp://192.168.192.100:12345/test
并收到警告:警告:错误管道:没有元素“h264parse”
如何将文件流式传输为 rtsp 流?
rtsp - 如何修复“Gstream-0.10 中的流结束前丢失流”
我已经通过 vlc 播放器通过 rtsp 流式传输视频,然后我通过 gstreamer-0.10 显示了这个视频。但是,当 vlc 通过 rtsp 流式传输视频时,我突然在流结束前的第一分钟丢失了流。
我使用了以下管道:
GST_DEBUG=2 gst-launch-0.10 rtspsrc location=rtsp://127.0.0.1:8554/test !gstrtpjitterbuffer !rtph264depay!ffdec_h264 !视频速率!xvimagesink 同步=假
我有以下输出:
rtpjitterbuffer.c:428:calculate_skew: delta - skew: 0:00:01.103711536 太大,重置 skew
rtpjitterbuffer.c:387:calculate_skew:服务器上的后向时间戳,采用新的基准时间
从元素“pipeline0”获得 EOS。
执行在 59982680309 ns 后结束。
将管道设置为 PAUSED ... gst_rtspsrc_send:未实现,禁用方法 PAUSE
如何解决这个问题?
gtk - 两个视频覆盖了 gstreamer alpha,根本不播放
我正在尝试使用 gstreamer alpha 创建一个绿屏应用程序。我正在使用 ximagesrc 来捕获具有绿色背景的窗口。然后我使用 alpha 覆盖捕获的绿色部分。但是,我什至不知道原因,新视频似乎无法播放。这是关于编解码器,还是两个视频之间存在某种同步问题?
我还包括了一个时间叠加,它被困在零。所以,新视频根本没有播放。然后我用了两种不同模式的videotestsrc,看到视频正在播放。
我的管道是:
没有 ximagesrc 的播放示例:
当我使用这个管道时,我期望一个覆盖的视频,“播放”。我看到一个输出,其中包括一帧叠加视频,但它没有播放。
video - 如何使用 gstreamer 同时在两个不同的显示器上播放两个不同的视频?
我正在使用 1. Raspberry Pi 4 Model B,它有 2 个 HDMI 端口。2.Gstreamer-1.0
我有两个视频保存在存储卡中。我想将两个视频驱动到两个不同的 HDMI 端口并同时在两个不同的显示器上播放视频。我想知道 Gstreamer 管道来访问 HDMI-1 和 HDMI-2 端口,并同时在不同的显示器上播放两个不同的视频。
在这里,我试图将 video.mp4 驱动到 HDMI-2。
gst-launch-1.0 playbin3 videosink="mfw-v4lsink device=dev/video18" uri=file:///home/pi/Downloads/video.mp4
我什至试过
gst-launch-1.0 playbin3 videosink="mfw-v4lsink device=HDMI-2" uri=file:///home/pi/Downloads/video.mp4
并且
gst-launch-1.0 playbin3 videosink="mfw-v4lsink device=dev/HDMI-2" uri=file:///home/pi/Downloads/video.mp4
我无法将视频驱动到 HDMI-2 端口。我希望视频在 HDMI-2 中播放,但对于上述 3 个给定的管道,实际输出来自 HDMI-1。
gstreamer - 将 GstBuffer 列表推送到下一个下游元素
我在上游元素中有一个 GstBufferList *list,并希望将其传递给下游元素以进行进一步处理。
Gstreamer 中是否有任何方法可以将此 Gstbufferlist 传递给下一个元素?
opencv - 网络摄像头未在 Ubuntu 18.04 中打开……在 TX2 上
我是 ubuntu 和 tx2 的新手。
我刚刚用 Ubuntu 18.04 和最新的 Jetpack 版本刷新了我的 TX2。
我无法打开和显示网络摄像头。
网络摄像头被 /video1 识别lsusb
并识别ls /dev/video*
为 /video1。
我正在尝试遵循本教程以及本教程和本教程。
我已经能够安装“gstreamer1.0-plugins-bad-faad
但不是 gstreamer1.0-plugins-bad-videoparsers
(我收到一个错误......我认为可以忽略它,因为它应该只需要用于 IP 摄像机)。
无论哪种方式,当我运行我的测试脚本时,我都会收到错误:
... GStreamer: pipeline have not been created
,以及“无法从资源读取”和“无法启动管道”错误。
尝试打开 Cheese 时,相机列在“设备”下……但显示为灰色。
我已经xvfb
安装和v4l-utils
.
运行此管道时,我得到一个看起来像旧电视测试传输的弹出窗口:
gst-launch-1.0 -v v4l2src device=/dev/video1 ! image/jpeg, format=MJPG, width=640, height=480, framerate=30/1 ! nvjpegdec ! 'video/x-raw(memory:NVMM), format=I420' ! nvvidconv ! xvimagesink
.
运行此管道后,我得到一个
"Pipeline is live and does not need PREROLL ... ERROR: from element /GstPipeline:pipeline0/GstV4l25Src:v4l2src0: Internal data stream error."
和
"ERROR: pipeline doesn't want to preroll.".
使用一些 MATLAB 代码,我可以“打开”网络摄像头,即灯亮起,但看不到任何输出。尝试使用上面的 OpenCV 代码时也没有得到输出......
任何帮助,将不胜感激。
编辑:我可以使用我的网络摄像头打开/流式传输nvgstcapture-1.0 --cap-dev-node=0 --camsrc=0
所以这听起来像是 gstreamer 的错误......我想。