问题标签 [gst-launch]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
gstreamer - Gstreamer将相机视频输入保存到文件返回空文件
我正在尝试从相机保存视频输入(也可以是逐帧),我可以像这样显示其输入:
我想将此视频以视频格式或逐帧保存到文件中。所以我试着跑
但是我的 video.avi 文件是空的。我究竟做错了什么?我是 GStreamer 的初学者,我在网上找不到有用的信息,所以我无法弄清楚该管道的每个部分在做什么。
编辑
详细运行我得到这个:
gstreamer - 如何找到gstreamer的外部摄像头的设备索引?
gst-device-monitor-1.0 仅显示 Audio/Source 类的设备。它根本不显示视频/源设备,
此外,它仅在明确要求视频设备时失败。
但是以下命令有效,因此它可以看到内置摄像头,并且我通过 USB 连接了另一个摄像头。
是否有另一种方法可以找出连接的外部摄像头的设备索引,以便可以将其传递给 avfvideosrc 设备?
gstreamer 版本:
在 OSX 上运行:Sierra 10.12.6
gstreamer-1.0 - gst-launch 1.0 窗口调整大小
在这里,我有 gst-launch 1.0 的 udp 流发送器:
gst-launch-1.0 -v filesrc location="./venom-trailer-3_h720p.mov" ! qtdemux ! rtph264pay pt=96 config-interval=-1 ! udpsink host=face=eth0 -e3 port=5001 multicast-if
这是我的接收器命令:
DISPLAY=:0 gst-launch-1.0 udpsrc uri=udp://232.255.23.23:5001 port=5001 ! application/x-rtp, payload=96 ! rtpjitterbuffer ! rtph264depay ! h264parse ! queue ! avdec_h264 ! xvimagesink udpsrc
我的问题是如何更改接收器中窗口的位置和大小。根据这个 https://gstreamer.freedesktop.org/data/doc/gstreamer/head/gst-plugins-base-plugins/html/gst-plugins-base-plugins-ximagesink.html
我必须改变ximagesink
价值观,但我得到了
WARNING: erroneous pipeline: no property "width" in element "xvimagesink0"
gstreamer - gst-launch-0.10 没有与 alsa 和 hdmi 同步的音频
我正在研究 imx 6DualLite。
我无法添加或编辑系统库。
我必须从 hdmi 和扬声器播放音频文件。
这是我正在使用的管道:
问题是扬声器的音频与hdmi的音频不同步
我已经尝试添加
gstreamer - gst-launch 和多行文本
如何在 gst-launch 的 textoverlay 管道中设置多行文本?
我想建立一个管道,并希望多行文本垂直和水平居中。我能做1行。
我不确定如何指定换行符。
我想基本上有2行以上。两者都相对于彼此和整个屏幕垂直和水平对齐。
gtk - 两个视频覆盖了 gstreamer alpha,根本不播放
我正在尝试使用 gstreamer alpha 创建一个绿屏应用程序。我正在使用 ximagesrc 来捕获具有绿色背景的窗口。然后我使用 alpha 覆盖捕获的绿色部分。但是,我什至不知道原因,新视频似乎无法播放。这是关于编解码器,还是两个视频之间存在某种同步问题?
我还包括了一个时间叠加,它被困在零。所以,新视频根本没有播放。然后我用了两种不同模式的videotestsrc,看到视频正在播放。
我的管道是:
没有 ximagesrc 的播放示例:
当我使用这个管道时,我期望一个覆盖的视频,“播放”。我看到一个输出,其中包括一帧叠加视频,但它没有播放。
python - 如何在python中杀死一个子进程
gst-launch
我有使用该命令在 linux pc 上运行网络摄像头的代码。
当我终止进程时,网络摄像头窗口没有关闭,但程序停止运行。我希望网络摄像头窗口也关闭。你能帮我解决这个问题吗?
gstreamer - GStreamer 使用 xvimage 预览 RTMP
我想使用 gstreamer xvimagesink 预览 RTMP。如果我像这样使用 autovideosink,我可以看到输出:
但是如果我用“xvimagesink”替换“autovideosink”,我会得到这个:
gstreamer - 使用 udp 启动 rtp
我正在学习 Gstreamer,首先我使用 gst-launch 工具使用 udpsink 和 udpsrc 元素通过网络流式传输视频文件。
在浏览了 Gstreamer 文档并阅读了其他 stackoverflow 注释后,我得到了一个命令来读取 mp4 文件并将其发送到没有可见错误的 udpsink,另一个命令使用 udpsrc 来使用流数据并将其发送到 xvimagesink 以进行可视化它,但是由于 xvimagesink 应该打开的窗口没有打开。
有人可以帮我解决这个问题吗?
我在这里复制我正在使用的两个 gst-launch 命令,以及生产者和消费者的日志。
生产者日志。
消费者日志。
gstreamer - 如何使用 fdsrc 将多个 PNG 或 JPG 图像输入到 gstreamer 的标准输入中
我正在尝试将一组 JPG 或 PNG 输入到 gstreamer 的标准输入。
我研究了 gstreamer 中有一些fdsrc
元素可以从文件描述符中输入数据。
我想我可以使用 fdsrc 和以下代码转储 mp4 文件。
但是,我想输入从我自己的应用程序导出的 JPG 或 PNG 数组。
我怎么能用 fdsrc 做到这一点?