3

我的 Logitech C920 网络摄像头提供以 h264 编码的视频流。我正在使用这个“捕获”工具来访问数据:

所以我可以观看实时视频:

/usr/local/bin/capture -d /dev/video0 -c 100000 -o | \
  gst-launch-1.0 -e filesrc location=/dev/fd/0 \
                    ! h264parse \
                    ! decodebin\
                    ! xvimagesink sync=false

...或将流记录为原始 h264 文件:

/usr/local/bin/capture -d /dev/video0 -c 100000 -o | \
  gst-launch-0.10 -e filesrc location=/dev/fd/0 \
                     ! h264parse \
                     ! mp4mux \
                     ! filesink location=/tmp/video.mp4

...但我一生都无法弄清楚如何同时做这两个事情。录制时在屏幕上实时显示有时很有用,所以我想完成这项工作。花了几个小时寻找一种同时抓取和筛选的方法,但没有运气。tee用s 和s乱搞再多也无济于事queue

猜猜将 ALSA 音频 (hw:2,0) 加入其中也是一种奖励,但我可以用一种丑陋的黑客方式解决这个问题。现在,即使 hw:2,0 是 Audacitu 或 arecord 中的有效输入,我也得到了这个,例如:

Recording open error on device 'hw:2,0': No such file or directory
Recording open error on device 'plughw:2,0': No such file or directory

所以回顾一下:很想把这两个视频位放在一起,如果音频也能工作,那就是奖金。我觉得自己像个新手。

提前感谢您提供的任何帮助。

编辑:非工作代码:

/usr/local/bin/capture -d /dev/video1 -c 100000 -o | \
     gst-launch-1.0 -e filesrc location=/dev/fd/0 ! tee name=myvid ! h264parse ! decodebin \
     ! xvimagesink sync=false myvid. ! queue ! mux. alsasrc device=plughw:2,0 ! \
     audio/x-raw,rate=44100,channels=1,depth=24 ! audioconvert ! queue ! mux. mp4mux \
     name=mux ! filesink location=/tmp/out.mp4 

...导致:

WARNING: erroneous pipeline: could not link queue1 to mux 

编辑:尝试了 umlaeute 的建议,得到了一个几乎空的视频文件和一个冻结的实时视频帧。修复启用音频的代码中的两个小错误(双引号拼写错误,未将音频编码为与 MP4 兼容的任何内容。添加avenc_aac之后audioconvert做了那个技巧)后,有/无音频没有区别。错误输出:

Setting pipeline to PAUSED ...
Pipeline is live and does not need PREROLL ...
Setting pipeline to PLAYING ...
New clock: GstAudioSrcClock
Redistribute latency...
ERROR: from element /GstPipeline:pipeline0/GstMP4Mux:mux: Could not multiplex stream.
Additional debug info:
gstqtmux.c(2530): gst_qt_mux_add_buffer (): /GstPipeline:pipeline0/GstMP4Mux:mux:
DTS method failed to re-order timestamps.
EOS on shutdown enabled -- waiting for EOS after Error
Waiting for EOS...
ERROR: from element /GstPipeline:pipeline0/GstFileSrc:filesrc0: Internal data flow error.
Additional debug info:
gstbasesrc.c(2809): gst_base_src_loop (): /GstPipeline:pipeline0/GstFileSrc:filesrc0:
streaming task paused, reason error (-5)

编辑:好的,umlaeute 的更正代码可以完美运行,但前提是我使用的是 v4l2src 而不是转换工具。现在,这意味着抓取 MJPEG 流而不是 H264 流。我的鼻子没有皮肤,虽然我想我更喜欢更现代的工作流程。所以无论如何,这就是实际工作的方法,输出一个 MJPEG 视频文件和一个实时“取景器”。不是很优雅,但很实用。感谢你的帮助!

gst-launch-1.0 -e v4l2src device=/dev/video1 ! videorate ! 'image/jpeg, width=1280, height=720, framerate=24/1' ! tee name=myvid \    
      ! queue ! decodebin ! xvimagesink sync=false \     
      myvid. ! queue ! mux.video_0 \    
      alsasrc device="plughw:2,0" ! "audio/x-raw,rate=44100,channels=1,depth=24" ! audioconvert ! lamemp3enc ! queue ! mux.audio_0 \    
      avimux name=mux ! filesink location=/tmp/out.avi
4

1 回答 1

0

mp4mux当涉及到自动组合多个不同的流(例如使用)时,gstreamer 通常有点愚蠢。在这种情况下,您通常不仅应该将流发送到命名元素,还应该发送到特定的 pad(使用elementname.padname符号;element.符号实际上只是命名元素中“任何”pad 的简写)。

此外,您似乎忘记了h264parsemp4muxer(如果您查看视频所采用的路径,它真的归结filesrc ! queue ! mp4mux为可能有点粗糙)。

虽然我无法测试管道,但我想像下面这样的东西应该可以解决问题:

 /usr/local/bin/capture -d /dev/video1 -c 100000 -o | \
   gst-launch-1.0 -e filesrc location=/dev/fd/0 ! h264parse ! tee name=myvid \
     ! queue ! decodebin ! xvimagesink sync=false  \
     myvid. ! queue  ! mp4mux ! filesink location=/tmp/out.mp4

使用音频可能更复杂,尝试这样的事情(显然假设您可以alsasrc device="plughw:2,0"使用该元素读取音频)

 /usr/local/bin/capture -d /dev/video1 -c 100000 -o | \
   gst-launch-1.0 -e filesrc location=/dev/fd/0 ! h264parse ! tee name=myvid \
     ! queue ! decodebin ! xvimagesink sync=false  \
     myvid. ! queue ! mux.video_0 \
     alsasrc device="plughw:2,0" ! "audio/x-raw,rate=44100,channels=1,depth=24"" ! audioconvert ! queue ! mux.audio_0 \
     mp4mux name=mux ! filesink location=/tmp/out.mp4
于 2013-04-16T21:32:28.480 回答