0

我正在尝试编写一个 python 应用程序,并让 gstreamer 播放我录制的视频文件(并在稍后使用 textoverlay 在视频上添加一些字幕)。

但是看起来我仍然有一些基本的问题来理解垫子的工作原理。我似乎无法正确建立链接。

我在上面构建的基本示例是一个简单的应用程序,显示来自网络摄像头的视频。所以我知道代码有效,只是我的管道把事情搞砸了。

此外,如果我在终端中运行执行以下管道,它可以工作:

gst-launch-0.10 filesrc location=GOPR0042.MP4 ! decodebin2 ! ffmpegcolorspace ! videoflip method=2 ! xvimagesink

现在,我正在尝试将此管道重新创建到 python 应用程序,如下所示:

#!/usr/bin/env python

import sys, os
import pygtk, gtk, gobject
import pygst
pygst.require("0.10")
import gst

class GTK_Main:

def __init__(self):
    window = gtk.Window(gtk.WINDOW_TOPLEVEL)
    window.set_title("Webcam-Viewer")
    window.set_default_size(500, 400)
    window.connect("destroy", gtk.main_quit, "WM destroy")
    vbox = gtk.VBox()
    window.add(vbox)
    self.movie_window = gtk.DrawingArea()
    vbox.add(self.movie_window)
    hbox = gtk.HBox()
    vbox.pack_start(hbox, False)
    hbox.set_border_width(10)
    hbox.pack_start(gtk.Label())
    self.button = gtk.Button("Start")
    self.button.connect("clicked", self.start_stop)
    hbox.pack_start(self.button, False)
    self.button2 = gtk.Button("Quit")
    self.button2.connect("clicked", self.exit)
    hbox.pack_start(self.button2, False)
    hbox.add(gtk.Label())
    window.show_all()

    # Set up the gstreamer pipeline
    self.pipeline = gst.Pipeline("player")
    self.filesource = gst.element_factory_make("filesrc","filesource")
          self.filesource.set_property("location","""/home/jlumme/video/GOPR0042.MP4""")
    self.pipeline.add(self.filesource)


    self.decoder = gst.element_factory_make("decodebin2","decoder")
        self.pipeline.add(self.decoder)

    self.colorspace = gst.element_factory_make("ffmpegcolorspace","colorspace")
    self.pipeline.add(self.colorspace)

    self.videosink = gst.element_factory_make("xvimagesink","videosink")
    self.pipeline.add(self.videosink)


    self.filesource.link(self.decoder)
    self.decoder.link(self.colorspace) #This fails
    self.colorspace.link(self.videosink)

    bus = self.pipeline.get_bus()
    bus.add_signal_watch()
    bus.enable_sync_message_emission()
    bus.connect("message", self.on_message)
    bus.connect("sync-message::element", self.on_sync_message)

def start_stop(self, w):
    if self.button.get_label() == "Start":
        self.button.set_label("Stop")
        self.pipeline.set_state(gst.STATE_PLAYING)
    else:
        self.pipeline.set_state(gst.STATE_NULL)
        self.pipeline.set_label("Start")

def exit(self, widget, data=None):
    gtk.main_quit()

def on_message(self, bus, message):
    t = message.type
    if t == gst.MESSAGE_EOS:
        self.pipeline.set_state(gst.STATE_NULL)
        self.button.set_label("Start")
    elif t == gst.MESSAGE_ERROR:
        err, debug = message.parse_error()
        print "Error: %s" % err, debug
        self.pipeline.set_state(gst.STATE_NULL)
        self.button.set_label("Start")

def on_sync_message(self, bus, message):
    if message.structure is None:
        return
    message_name = message.structure.get_name()
    if message_name == "prepare-xwindow-id":
        # Assign the viewport
        imagesink = message.src
        imagesink.set_property("force-aspect-ratio", True)
        imagesink.set_xwindow_id(self.movie_window.window.xid)

GTK_Main()
gtk.gdk.threads_init()
gtk.main()

现在我看到人们使用动态板将解码器连接到一些音频的东西,但我真的不明白它是如何工作的......所以,我想我不能直接连接解码器bin2和ffmpegcolorspace?有人可以解释一下为什么吗?

另外,您是否预见到下一步会出现问题,我想在管道中添加 textoverlay 元素以显示字幕?

4

1 回答 1

1

在最近回答我自己的问题的习惯中,我也会在这里这样做:)

所以,经过更多的阅读和修改,我确实意识到我并没有真正得到动态打击垫,以及只有当有东西进来时才需要连接它们。

所以基本上我用 2 个队列解决了上述问题,包括音频和视频。然后将这些队列连接到解码器,并且需要将它们放置在解复用器之后并动态连接。解码器和接收器似乎也需要动态连接焊盘。

这个论坛上一个非常清楚地解释了这个过程的问题是: gstreamer code for play avi file is hang

于 2012-06-01T01:11:13.463 回答