我正在使用OpenCV和 GStreamer 0.10。
我使用这个管道通过 UDP 接收 MPEG ts 数据包,并使用sockfd
python 提供的自定义套接字并将其显示xvimagesink
,它工作得很好。以下推荐行适用于此管道:
PIPELINE_DEF = "udpsrc do-timestamp=true name=src blocksize=1316 closefd=false buffer-size=5600 !" \
"mpegtsdemux !" \
"queue !" \
"ffdec_h264 max-threads=0 !" \
"ffmpegcolorspace !" \
"xvimagesink name=video"
现在,我想从这个管道中获取一帧并用 OpenCV 显示它。我该怎么做?我对从appsink 获取缓冲区数据了解很多。但我仍然不知道如何将这些缓冲区转换为 OpenCV 的每一帧。感谢您的回复,以及任何帮助:]