问题标签 [xuggler]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 在 Windows 上的 Xuggler 库中获取网络摄像头名称
当我在具有多个 Windows 网络摄像头的计算机上使用 Xuggler 库时,我需要使用此网络摄像头的“名称”来选择设备。我的意思是命令“vfwcap 0”只选择第一个网络摄像头,命令“vfwcap 1”或“vfwcap 2”不允许访问其他网络摄像头。如果我使用:
我可以看到这个网络摄像头的“名称”列表。例如:“罗技高清网络摄像头 C270”、“罗技网络摄像头 C210”。如果我在 Xuggler 库中使用这个名称,我会收到错误消息。
因此,我只能使用 Xuggler 访问 Windows 机器上的第一个网络摄像头。
我可以从 Xuggler 获取 Windows 中所有设备的列表吗?我可以在 Xuggler 中使用这个名称吗(我只想同时使用多个网络摄像头)?
也许存在替代方式?
xuggler - Xuggler 音频直播播放不连续
我有一份工作,我必须连续截屏并从桌面捕获声音,然后将它们发布为实时视频流。我使用 Wowza Media Server 3.0.3 进行流媒体发布。我还使用 Xuggler 生成图像帧并将它们与声音缓冲区一起放入数据包中。我有以下问题:
我启动我的程序,图像帧和声音包的发布正在进行中。Wowza 控制台通知我,数据包已发布。当我打开媒体播放器(在本例中为 VLC)时,流的视频部分就像一个魅力(我看到从我的桌面连续捕获的图像帧),但音频部分很差。我的意思是,当我开始播放直播时,VLC 会缓冲从我的桌面录制的大约 3 秒长的声音部分,并以更高的速度播放。经过较长时间的休息后,它再次缓冲并播放下一部分。在我的代码中,我不断发送以 MP3 编码的声音 iBuffer 并将它们发布到数据包中,所以我无法理解为什么声音没有像图像帧那样连续播放。
任何人都可以得到我的问题的答案或任何经验吗?
我已经从我的代码中复制了一份,我只是在其中流式传输桌面声音,而不是图像帧。这是片段,我在其中获取声音,并将其发送到编码和发布:
这是我获取 iBuffer 并将其编码为 mp3 的部分。在我将其作为数据包发布后:
java - 我在哪里可以找到 xuggler 简单教程?
我正在为我所在国家的网页制作一个简单的消息传递应用程序。我尝试学习 JMF,但在我看来它太旧了,我只是不想使用它。我搜索了 stackoverflow,似乎 xuggler 是一种更好的媒体管理方式。有人可以给我一个免费电子书的链接或开始的东西吗?
谢谢你
java - XUGGLE 错误:线程“主”java.lang.NoClassDefFoundError 中的异常:org/slf4j/LoggerFactory
我正在尝试执行以下代码:
但它给了我这个错误:
我已将 SLF4J 添加到我引用的库中,但不知道为什么这不起作用。
在WIN 7上运行,在eclipse和netbeans中试过
任何想法?
java - 提取 AVCHD 视频的创建日期和时间
我正在尝试从 .MTS 文件(AVCHD 视频文件)中提取视频的创建日期和时间。
有没有免费的java库可用?
我已经尝试过使用 Xuggler,但无法弄清楚如何提取这些特定信息。
任何帮助表示赞赏。
谢谢。
java - Xuggler 和从直播中播放
我们目前正忙于一个项目,我们试图在一个窗口中播放来自 Java 实时流的视频文件。我们已经设法使用 InputStreamReader 通过 Socket 对象捕获流。
下一步是使用现有库 (Xuggler) 或代码来解码此流并在简单窗口中显示内容(视频)。
该流来自 Parrot AR Drone 2.0,IP 地址为 192.168.1.1:5555。那就是我们陷入困境的地方。我们尝试使用的代码是此处的 DecodeandPlayVideo 示例:
现在应该可以将它与输入流一起使用,但它当然应该采用正确的格式。有什么方法可以帮助我们做到这一点?
java - 验证视频编码是 H.264
我需要验证视频文件是(在 Java 中):
- 视频采用 H.264 编码
- 音频是 AAC 编码的
我研究过 JMF 和 Xuggle。
Xuggle 使加载和解码文件并将其转换为另一种格式变得更加容易,但我还无法弄清楚如何确定我已经加载的文件的编码。
所以我想知道 Xuggle 是否能够简单地返回文件具有的视频和音频编码类型,还是我需要读取文件的位来自己确定这一点?
如果我需要自己确定这一点,有人可以指点我一些关于 H.264 格式的文档吗
ffmpeg - 如何使用带有附加 ffmpeg 命令行选项的 Xuggler 接收 RTSP 流?
我可以使用默认 UDP 传输从 IP 摄像机获取带有 Xuggler 的 RTSP 流,但它会生成诸如 [Thread-6] ERROR org.ffmpeg - [h264 @ 00000000489652B0] 损坏的宏块之类的错误尽管使用新下载的 ffmpeg 二进制文件(ffmpeg.exe、ffplay.exe),从 IP 摄像机打开相同的流也可以正常工作。
所以我尝试使用 ffmpeg -rtsp_transport tcp 选项获取 RTP TCP 流。但是在 Java 代码中添加该选项
container.setProperty("rtsp_transport", "tcp");
但没有任何反应,流仍然是 UDP。
如何克服 RTP UDP 流问题以及如何使用 Xuggler 将 rtsp 流传输切换到 tcp?
转发谢谢
android - 如何将音频文件与新的视频文件合并?在 android 中可以吗?
我在android中使用javacv成功地从图像序列中获取了视频。现在我遇到的问题是如何将音频合并到新创建的视频中。在android或javacv集成中是否可能?
在这段代码中,如何合并我的音频文件?
java - Xuggler 编码和复用
我正在尝试使用Xuggler(我相信它在幕后使用ffmpeg
)来执行以下操作:
- 接受原始 MPJPEG 视频比特流(来自小型 TTL 串行相机)并将其编码/转码为 h.264;和
- 接受原始音频比特流(来自麦克风)并将其编码为 AAC;然后
- 将两个(音频和视频)比特流混合到一个 MPEG-TS 容器中
我已经观看/阅读了他们的一些优秀教程,到目前为止,这就是我所拥有的:
一方面,我想我已经接近了,但它仍然不正确;而且我只是通过阅读视频代码示例(而不是音频-我找不到任何好的音频示例)来做到这一点。
从字面上看,我将对进入我的 Xuggler 实现的原始视频和音频提要进行字节级访问。但是对于我的生活,我无法弄清楚如何将它们变成 h.264/AAC/MPEG-TS 格式。在此先感谢您的任何帮助。