问题标签 [gst-launch]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
gstreamer - 使用 gst-launch 播放原始视频
我已经使用 filesink 创建了一个原始视频文件,我可以使用以下命令使用 vlc 播放该文件
但是,随着
抛出错误
任何线索如何解决此错误?
linux - 如何在 Linux 中使用 gstreamer 播放 OGG 文件中的视频流
我正在尝试设置一个管道以使用 gstreamer-0.10 在 Linux 中播放来自 OGG 文件的视频流。我需要使用 gst-launch 实用程序从命令行执行此操作。我可以使用以下命令成功播放音频和视频流:
我还可以使用以下命令设置管道来播放视频测试文件:
但我似乎无法拼凑出合适的管道来播放来自 OGG 解复用器的视频流。
根据 gstreamer 文档(图 3 - http://docs.gstreamer.com/display/GstSDK/Basic+tutorial+3%3A+Dynamic+pipelines),OGG demuxer 视频接收器应该是 src_02。gst-inspect 命令似乎支持这一点:
并根据本教程指定垫(http://docs.gstreamer.com/display/GstSDK/Basic+tutorial+10%3A+GStreamer+tools),我相信我从文件中播放视频流的命令会看起来像这样:
但这些是我的跑步结果。一切似乎都挂起“预滚动”,我需要用 Ctrl+C 打断才能返回命令行:
有任何想法吗?
也可能有见地:
更新:我能够使用以下命令仅播放音频流:
请注意,它在使用filesrc location=demo.ogv
. 仅当我使用 uridecodebin 时。而且我仍然无法隔离视频流。
更新2:我偶然发现了一个隔离和播放视频流的管道,但我不明白:
我在冲浪 ( http://wiki.laptop.org/go/GStreamer/Developers ) 时发现了它,并看到了 videotestsrc 的演示执行。
谁能解释为什么这有效?这似乎对文件进行编码、复用、解复用、解码,然后将其过滤/缩放到接收器中。这有什么意义?
ubuntu - 在 Ubuntu 中使用 Gstreamer 通过 RTP 协议流式传输 Mp4 视频
我正在尝试从本地目录中获取视频文件,从服务器启用流并从客户端捕获这些帧。我使用了以下管道:
服务器端:
客户端:
设置这些后,我没有看到任何显示(甚至没有启动应用程序屏幕)
要添加到上述信息,我在 Ubuntu-12.04 的命令行中运行这些命令
gstreamer - 如何使用 gstreamer 从 mp4(h264/aac) 转码和调整大小到 mp4(h264/mp3)?
我想使用 gstreamer 对 mp4.(mp4-h264_1920x1080/aac => mp4-h264_640x480/mp3) 进行转码和调整大小。我写下了这个命令。
这没有用。
仅转码视频有效:
并且只转码音频:
如何使用相同的命令对音频和视频进行转码?
gstreamer - gstreamer1.0 与罗技 c920 网络摄像头管道不想暂停
我正在尝试在罗技 c920 USB 相机中使用硬件 h264 压缩器。我使用的是 Ubuntu 14.10 提供的 gstreamer1.0 包。
我得到输出
有什么线索吗?我有点困惑。我怀疑我会被告知“您需要升级”,但我试图避免遇到从源代码构建所有内容然后尝试在其他系统上复制它的麻烦。
gstreamer - 警告:错误的管道:无法将 customrc0 链接到 mpegtsmux0
我无法使用 gstreamer 创建管道,也不知道如何进一步调试它。
customrc 和 mpegtsmux 的功能是匹配的。但显然缺少了一些东西。
海关rc
mpegtsmux
我还能做些什么来找出不匹配?
gstreamer - 压缩mpeg流并通过网络gstreamer发送
我想构建一个管道,通过网络使用 gstreamer 1.0 发送 mpeg 文件。我尝试了一些管道和示例,但该元素既不为人所知,也无法链接两个元素。
有人可以向我展示一个管道,例如发送者和接收者的 udp 协议吗?或者有人给我一些提示?
我目前正在使用 Ubuntu 14.04
c - GStreamer 元素 multifilesrc 不抛出带有 stop-index 参数集的 EOS
当我设置参数时,我有一个pipeline
不会抛出 EOS 。stop-index
管道如下所示:
此管道不断创建 5 帧 ADIF0140.jpg -> ADIF0145.jpg 的视频,重复,直到我手动停止它。例如,我会有一个显示 5 帧的视频,然后是 5 帧,一次又一次,等等。它就像卡在某种循环中一样。
如果我删除stop-index
,那么当文件列表用完时,管道将生成一个 EOS。但是,一旦达到特定数量的帧,我需要管道来抛出 EOS。
gst-inspect-0.10 multifilesrc
告诉我该stop-index
参数确实告诉管道在达到索引后停止。也许我误解了什么?
有没有办法让 multifilesrc 在达到stop-index
参数时生成 EOS?
编辑:
我遵循了评论部分的建议并将 -e 添加到我的 gst-launch 命令中。不幸的是,它对我的输出没有任何影响。仍然没有收到任何 EOS。但是,现在当我手动控制 c 时,我确实看到了一条消息,上面写着:
我export GST_DEBUG="*:3"
在运行带有参数集的 gst-launch 命令之前运行了一个,stop-index
并得到了一个我无法理解的有趣输出。
如果我运行相同的 gst-launch 命令,但没有停止索引,我会得到一个 EOS 输出:
谁能帮助解释这些输出?
linux - GStreamer 命令行连接两个 .avi 视频
有人可以给我一个示例 gst-launch-0.10 命令行管道,它将两个视频连接在一起并输出一个 .avi 视频文件。
我看过一些使用 gnlcomposition 和 smpte 的例子,但是老实说我对这些插件不太了解,所以如果可能的话,我想避开。
谢谢
gstreamer - 如何使用 GStreamer gst-launch 从 RTSP 源重新复用隔行扫描的 h264 流?
有什么方法可以将隔行扫描的 h264 流重新混合到 Matroska 或 QT 容器形式中,让玩家可以正确地将其识别为隔行扫描?我的基本管道是:
gst-launch-1.0 -e souphttpsrc location="http://hostname/stream1.sdp" ! application/sdp ! sdpdemux ! rtpjitterbuffer ! rtph264depay ! h264parse ! matroskamux ! filesink location=test.mkv
这可以很好地保存文件,但是在我尝试过的所有播放器中,都没有检测到视频的隔行扫描形式。