我正在尝试使用WebRTC
. 我对视频会议和客户端-服务器连接场景非常陌生。
我创建了一个使用点对点连接的视频会议演示应用程序。效果很好。但我还需要将整个会议(双方的视频+音频)记录在一个文件中。
我在WebRTC
演示中看到的,我没有得到任何这样的方法来做到这一点。我不确定是否可以通过WebRTC
与任何其他工具合并或仅使用WebRTC
一些自定义逻辑来做到这一点。
请帮助我,如果它们提供此类功能,我也愿意使用任何其他开源工具。
我正在尝试使用WebRTC
. 我对视频会议和客户端-服务器连接场景非常陌生。
我创建了一个使用点对点连接的视频会议演示应用程序。效果很好。但我还需要将整个会议(双方的视频+音频)记录在一个文件中。
我在WebRTC
演示中看到的,我没有得到任何这样的方法来做到这一点。我不确定是否可以通过WebRTC
与任何其他工具合并或仅使用WebRTC
一些自定义逻辑来做到这一点。
请帮助我,如果它们提供此类功能,我也愿意使用任何其他开源工具。
不同的浏览器现在正在做不同的事情。
我认为目前只有Firefox允许您直接从 WebRTC 流创建单个文件记录。
Chrome会拆分音频和视频轨道,因此您必须在浏览器上使用https://www.webrtc-experiment.com/ffmpeg/之类的ffmpeg自行组合...不推荐或将它们推送到服务器并组合它在那里使用成熟的ffmpeg作为后台任务。
不是太多的 ffmpeg 专家,但我认为您需要将音频提前 1 秒或 1 秒后移动,以正确同步我上次尝试做类似事情的音频和视频流。忘记是哪条路了。
基本上,您需要同时提供视频和音频流,选择 webm 编码或 mp4 编码和 aac 音频或 mp3 等,然后将其输出到单个文件。我只能说,您将进行大量试验和错误才能获得正确的输出。祝你好运 :)
https://ffmpeg.org/ffmpeg.html
或者也许尝试像http://www.kurento.org/这样的东西,我认为它会为你做到这一点。