我正在尝试将 ffmpeg 编译成 javascript,以便我可以使用 node.js 解码 H.264 视频流。流是打包到 RTP NALU 中的 H.264 帧,因此任何解决方案都必须能够接受 H.264 帧而不是整个文件名。这些帧不能在 MP4 或 AVI 之类的容器中,因为解复用器需要每个帧的时间戳才能进行解复用,但我正在处理实时流,没有容器。
通过 RTP 流式传输 H.264
下面是我用来监听 udp 套接字的基本代码。在“消息”回调中,数据包是一个 RTP 数据报。数据报的数据部分是一个 H.264 帧(P 帧和 I 帧)。
var PORT = 33333;
var HOST = '127.0.0.1';
var dgram = require('dgram');
var server = dgram.createSocket('udp4');
server.on('listening', function () {
var address = server.address();
console.log('UDP Server listening on ' + address.address + ":" + address.port);
});
server.on('message', function (message, remote) {
console.log(remote.address + ':' + remote.port +' - ' + message);
frame = parse_rtp(message);
rgb_frame = some_library.decode_h264(frame); // This is what I need.
});
server.bind(PORT, HOST);
我找到了Broadway.js库,但我无法让它工作,而且它不能处理我需要的 P 帧。我还找到了 ffmpeg.js,但可以让它工作,它需要一个完整的文件而不是一个流。同样,fluent-ffmpeg似乎不支持文件流。所有示例都显示了传递给构造函数的文件名。所以我决定编写自己的 API。
我目前的解决方案尝试
我已经能够将 ffmpeg 编译成一个大的 js 文件,但我不能那样使用它。我想围绕 ffmpeg 编写一个 API,然后将这些函数公开给 JS。所以在我看来我需要做以下事情:
- 将 ffmpeg 组件(avcodec、avutil 等)编译成 llvm bitcode。
- 编写一个公开解码功能并使用 EMSCRIPTEN_KEEPALIVE 的 C 包装器。
- 使用 emcc 编译包装器并将其链接到在步骤 1 中创建的位码。
我找到了 WASM+ffmpeg,但它是中文的,有些步骤不清楚。特别是有这一步:
emcc web.c process.c ../lib/libavformat.bc ../lib/libavcodec.bc ../lib/libswscale.bc ../lib/libswresample.bc ../lib/libavutil.bc \
:(我认为我被困在哪里
我不明白所有 ffmpeg 组件是如何编译成单独的 *.bc 文件的。我按照那篇文章中的 emmake 命令操作,最终得到了一个大的 .bc 文件。
2个问题
1. 有谁知道使用 emscripten 编译 ffmpeg 以便我可以将一些 API 暴露给 javascript 的步骤?
2. 有没有更好的方法(带有体面的文档/示例)使用节点解码 h264 视频流?