问题标签 [mux]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
audio - GStreamer:将虚拟音轨添加到接收到的 rtp 流
我正在使用以下方法从我的 Raspberry 相机启动 RTP 流:
raspivid -n -vf -fl -t 0 -w 640 -h 480 -b 1200000 -fps 20 -pf baseline -o - | gst-launch-1.0 -v fdsrc ! h264parse ! rtph264pay pt=96 config-interval=10 ! udpsink host=192.168.2.3 port=5000
在客户端站点上,我将其转换为 HLS 并将其上传到 Web 服务器上:
gst-launch-1.0 udpsrc port=5000 ! application/x-rtp,payload=96 ! rtph264depay ! mpegtsmux ! hlssink max-files=5 target-duration=5 location=C:/xampp/htdocs/live/segment%%05d.ts playlist-location=C:/xampp/htdocs/live/playlist.m3u8
以上对我有用。另一方面,一些播放器不播放 HLS,因为它没有音轨。我试图弄清楚如何添加虚拟音轨。我尝试了很多东西,但没有运气,例如
gst-launch-1.0 udpsrc port=5000 ! application/x-rtp,payload=96 ! rtph264depay ! h264parse ! mux. audiotestsrc wave=4 freq=200 ! audioconvert ! queue ! mux. mpegtsmux name=mux ! hlssink max-files=5 target-duration=5 location=C:/xampp/htdocs/live/segment%%05d.ts playlist-location=C:/xampp/htdocs/live/playlist.m3u8
或者
gst-launch-1.0 -e -v udpsrc port=5000 name=src ! application/x-rtp,payload=96 ! rtph264depay ! h264parse ! mpegtsmux name=mux ! audiotestsrc wave=silence src. ! audioconvert ! wavenc ! rtpmp4gdepay ! aacparse ! mux. ! hlssink max-files=5 target-duration=5 location=C:/xampp/htdocs/live/segment%%05d.ts playlist-location=C:/xampp/htdocs/live/playlist.m3u8
任何帮助表示赞赏
unit-testing - 使用 Gorilla MUX 对 App Engine 进行单元测试
我想为 Google App Engine 中的处理程序编写测试,这些处理程序使用 Gorilla mux 从请求 URL 读取变量。
我从文档中了解到,您可以创建一个虚假的上下文并请求与测试一起使用。
我在测试中直接调用处理程序,但处理程序没有按预期看到路径参数。
问题是处理程序总是看到一个空的“电子邮件”参数,因为 Gorilla mux 没有解释路径。
路由器如下:
我的所有搜索都没有得到任何特定于使用 Gorilla mux 进行 App Engine 单元测试的内容。
ios - mux raw h 264 到 mp4 文件,一些奇怪的错误
我正在做的是使用 Xcode 7.3 的 IOS 应用程序。
我使用 UDP 从 ip camera 获取 h264 数据,数据可以正确解码和显示(由 ffmpeg 解码)。现在我想使用 ffmpeg 将原始 H264 数据混合到一个 mp4 文件(一些用户可能想记录他们在他的手机上观看的内容)。代码运行时没有任何问题,结果文件在我的电脑上用QuickTime可以正常播放。但是当用iphone的默认视频播放器在iphone上播放时,无法正常播放。这是我的代码。
希望有人能告诉我该怎么做,谢谢!
在里面
添加视频流并打开
写视频帧
在编解码器上下文中设置额外数据
node.js - 如何在 node.js 中复用(拦截)网络(tcp)套接字?
我想查看网络套接字连接的第一个数据包的标头,然后从那里决定如何处理它。
TCP 示例(有效,但无用)
这是没用的,因为它不能解决我的问题,它只是证明,理论上,问题是可以解决的。
TLS 示例(不起作用)
这是我实际上正在尝试做的,但不起作用:
我尝试过手动发出readable
事件以及data
使用块和resume
ing 手动发出事件,但它似乎在所有这些情况下都挂起,而不是像上面的示例那样工作。
gstreamer - Kazam 崩溃,将 .mux 文件转换为 .mp4
我正在录制一个超过 2 小时的全屏游戏(英雄连),我在完成之前愚蠢地不小心关闭了 Kazam,并问我要将它保存在哪里。
我发现它已经将所有内容保存到 .mux 文件中(我的设置已设置为将其作为 h264 流转换为 .mp4 文件)
由于 Kazam 使用 GStreamer,我如何使用 gstreamer 将其处理为可播放的 .mp4 格式?
这发生在 Ubuntu 16.04
编辑:我想补充一点,我真的很想保存这个视频文件(也需要声音)对我来说是一个高优先级。
http - golang 在 post 上接受 gzip 压缩的数据
我正在尝试将一些在帖子中压缩的数据发送到 golang 服务器,并在帖子中使用压缩包。基本上,我做以下输入
在服务器端
我不断收到 EOF 错误。我试图打印原始字节,ioutil.ReadAll(req.Body)
但它并不是我从 curl 发送的完整数据。
有什么需要配置为复用的吗?现在我将它创建为
scala - 凿子3。功能模块 Mux4
我正在按照Github 上的文档学习 Chisel
到目前为止,一切都完美无缺。但我被困在第 13 章, “功能模块创建”
我无法让代码工作。我在 chisel-template-project 的副本中创建了所有 .scala 类。这是我为创建具有可变位宽的 Mux4 而编写/复制的内容:
/chisel-template/src/main/scala/ Mux4.scala
我写的Tester scala类:
/chisel-template/src/test/scala/ Mux4Test.scala
输出的重要部分
Mux4 类(Circuit)返回 0 作为输出,而它应该是 5,因为选择过程如下:
00 -> io.out = in3 = 15
01 -> io.out = in2 = 11
10 -> io.out = in1 = 7
11 -> io.out = in0 = 5
在 Mux4Test.scala 类中,我写了val sel = 3。这个的位表示是11,因此我希望in0 = 5。
我哪里错了?
vhdl - VHDL:11 条总线之间的多路复用器 8 位宽输出
我收到了这个问题作为面试前的问题“为满足以下要求的模块绘制图表并编写 VHDL 代码:a. 完全同步。b. 在 11 条总线之间多路复用,其中每条总线为 8 位宽。c. 有2 个延迟周期。d. 针对最大时钟频率进行了优化。”
我一直在尝试自己阅读我在大学完成的旧笔记和作业,但我只是不认为我在正确的轨道上。到目前为止,我已经将代码发布在下面:
这是我的第二个文件的代码:
有没有人可以告诉我我是否走在正确的道路上,如果这是完全同步的,我将如何开始实施或确定 2 个延迟周期?