我通过网络 (UDP) 收到一个 MPEG TS 容器。它包含两个流:一个具有 yuv420p 像素格式的 mpeg2video 视频流和一个使用专有 KLV 格式编码的数据流。
我的接收器程序必须使用 Python。所以,我不能直接使用 FFMPEG 库(如AVFormat
, AVCodec
)。
现在我的问题如下:
我需要接收视频帧并将它们保存为 RGB 图像作为原始numpy
数组。我还需要为每一帧解析相应的 KLV 数据。视频帧和 KLV 数据单元之间存在一对一的关系。
我想我ffprobe
用来输出数据包,包括来自传入容器的有效负载数据,然后解析输出ffprobe
以获取图像和元数据:
$ ffprobe -show_packets -show_data -print_format json udp://127.0.0.1:12345 > test_video.packets.data.json
这给了我一个输出(在test_video.packets.data.json
文件中),如:
{
"codec_type": "video",
"stream_index": 0,
"pts": 140400,
"pts_time": "1.560000",
"dts": 136800,
"dts_time": "1.520000",
"duration": 3600,
"duration_time": "0.040000",
"size": "21301",
"pos": "3788012",
"flags": "K_",
"side_data_list": [
{
"side_data_type": "MPEGTS Stream ID"
}
],
"data": "... "
},
{
"codec_type": "data",
"stream_index": 1,
"pts": 140400,
"pts_time": "1.560000",
"dts": 140400,
"dts_time": "1.560000",
"size": "850",
"pos": "3817904",
"flags": "K_",
"side_data_list": [
{
"side_data_type": "MPEGTS Stream ID"
}
],
"data": ".... "
}
我可以从数据包中提取 KLV 数据并解析它。然而,视频数据包中的数据以 yuv420p 像素格式编码为 mpeg2video 视频。
我的问题:
- 如何从该 mpeg2 编码的有效负载中获取原始像素值?
- 是否可以使用 ffmpeg 接收原始容器并将其(使用两个流)复制到新容器中,但使用原始视频而不是 mpeg2 视频?如果是,如何?命令应该是什么?我试过例如:
ffmpeg -i udp://127.0.0.1:12345 -map 0:0 -codec rawvideo -pix_fmt rgb24 -map 0:1 -codec copy -f mpegts udp://127.0.0.1:11112
,但它再次给了我视频数据包有效载荷中的 mpeg2 编码视频数据