问题标签 [android-ffmpeg]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ffmpeg - ffmpeg 从具有多个通道的输入中输出单独的通道
我运行此命令以便能够将 udp 直播流传输到可使用正在构建的移动应用程序播放的 http 直播流。它只是一个只有音频流的流。
ffmpeg -i udp://@localhost:1111 -map 0:a http://localhost:8090/feed1.ffm
我得到这个输出
我真的想要一种方法,我可以将每个输入流映射到一个输出流,该输出流可以与另一个流分开访问,比如如果我需要第一个流,也许我会
如果我需要第 7 个流,我会
请有人可以帮我解决这个问题。FFmpeg 没有针对我当前情况的复杂示例。
这是我的标题信息
ffmpeg 版本 3.2.4-1~16.04.york0 版权所有 (c) 2000-2017 FFmpeg 开发人员使用 gcc 5.4.1 (Ubuntu 5.4.1-5ubuntu2~16.04.york1) 构建 20170210 配置:--prefix=/usr --额外版本='1~16.04.york0'-- toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --enable-gpl --disable-stripping --enable-avresample -- enable-avisynth --enable-gnutls --enable-ladspa --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libebur128 --enable-libflite -- enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libmp3lame --enable-libopenjpeg --enable-libopenmpt --enable-libopus --enable-libpulse --启用-librubberband --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvorbis --enable-libvpx -- enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxvid --enable-libzmq --enable-libzvbi --enable-omx --enable-openal --enable-opengl--enable-sdl2 --enable-libdc1394 --enable-libiec61883 --enable-chromaprint --enable-frei0r --enable-libopencv --enable-libx264 --enable-shared libavutil 55. 34.101 / 55. 34.101 libavcodec 57 . 64.101 / 57. 64.101 libavformat 57. 56.101 / 57. 56.101 libavdevice 57. 1.100 / 57. 1.100 libavfilter 6. 65.100 / 6. 65.100 libavresample 3. 1. 0 / 3. 1. 0 / 4 libswscale 4. 10.10 libswresample 2. 3.100 / 2. 3.100 libpostproc 54. 1.100 / 54. 1.100100 libavresample 3. 1. 0 / 3. 1. 0 libswscale 4. 2.100 / 4. 2.100 libswresample 2. 3.100 / 2. 3.100 libpostproc 54. 1.100 / 54. 1.100100 libavresample 3. 1. 0 / 3. 1. 0 libswscale 4. 2.100 / 4. 2.100 libswresample 2. 3.100 / 2. 3.100 libpostproc 54. 1.100 / 54. 1.100
这就是我的完整控制台。
ffmpeg - 使用 FFMPEG 和 FFSERVE 将 UDP 直播流解复用到多个单个直播流输出
我对 ffmpeg 有疑问。我有一个具有 8 个输入的输入实时流,我想使用 ffmpeg 将其从 udp live steram 转换为 tcp livestream,然后以不同的方式提取 8 个输入流中的每一个。
我一直在阅读他们没有提供解决我问题的明确方法的ffmpeg文档。
我正在跑步
我正在运行此命令来帮助我将输入拆分为可以以不同方式访问的多个输出。
这是我的全部输出
这些是我的实时提要。
这些是我的信息流
MP3 音频
android-studio - Android中的JavaCV
我下载了 JavaCV-1-3-1。
现在我有两个问题:
如何将 JavaCV 导入 Android Studio 以供使用?
可以从带有 JavaCV 的 FFMPEG 命令中使用吗?
ffmpeg - FFmpeg 在浏览器上播放音频流
嘿伙计们,我有一个由 ffserver 提供的实时流,但我希望该流可以在浏览器上播放,因为我有一个网站,并且我还想在 Android 应用程序中播放该流。最重要的是安卓设备。
我想如果我在浏览器上输入这个,然后我就可以在那里收听流。
如果我把链接放在 vlc 中,我就能接收到流。
任何有此解决方法的人请帮助我。
android - 带有 Android SDKS 16-25 和 NDK 14 的 FFMPEG - 'atof' 错误
我正在尝试通过 NDK 以及我的 android 应用程序编译 FFMPEG(版本 3.2.4)。
目前我遇到了与旧设备的兼容性问题。
如果我使用,我可以编译:
在 Application.mk 中,但由于此错误,我无法加载库:
如果我将 APP_PLATFORM 设置为 android-16 我无法编译并收到此错误:
有什么建议么?SDK 级别是一项要求,因此我无法放弃支持:(
android - 如何在不使用 ffpeg Android 的情况下在视频中添加文本?
我正在使用 MediaMuxer 和 MediaExtractor 对视频进行转码。现在我想在视频的某个位置添加文字。我怎样才能做到这一点?基本上我正在录制视频并以较低的分辨率对其进行转码,现在我想在不使用 ffmpeg 的情况下添加文本覆盖。我尝试使用 ffmpeg 添加水印,但它需要太多时间。我正在使用这个库。这是我的命令:
android - 在 Android 中运行的 FFmpeg 命令行
我正在开发一个将视频 (mp4) 转换为 (mp3) 的应用程序。我正在使用这个库进行转换,但过程太慢了。https://github.com/WritingMinds/ffmpeg-android-java/issues
我已经尝试过使用特殊命令,但是库有问题。有很多人抱怨这一点。
他们编译 FFmpeg 并为 android 创建了一个库。
我已经用 NDK 编译了 FFmpeg 以在 android 中使用,请点击以下链接:
http://www.roman10.net/2013/08/18/how-to-build-ffmpeg-with-ndk-r9/
https://blog.sonnguyen.org/2016/07/08/Build-ffmpeg-with-Android-NDK-r12/
我想知道如何在我的 android 项目中使用这些文件。我阅读了有关 JNI 的信息,但我不知道如何开始或做什么
我只想从 FFmpeg 使用这个命令行:
如果有人可以帮助我,我会很高兴。谢谢
android - FFMPEG 命令-严格的实验性,-ar,-s,-b:a vs -ab,-b vs -b:v
下面的 ffmpeg 命令有什么区别或者它们是否相同?
AFAIK 第一行命令用于音频比特率,第二行命令用于视频比特率
我也无法理解以下命令的作用?
(例如-ar 22050
:)
(例如-s 160x120
:)
android - 无法使用 FFMPEG 在 android 中复制 RTSP 流式视频
我正在开发一个安卓应用程序。在我的应用程序中,我想使用ffmpeg库录制直播视频。我编写了一个用于录制直播视频的代码,但它不起作用。它显示了一些错误。如果有人知道这一点,请帮助我。
这是我用来录制视频的代码
当我执行此块时,我收到以下错误消息。
audio - 有没有办法加快 FFMPEG 中的音频处理(amix 和 adelay)?
我在 android 应用程序中ffmpeg
对非常小的 mp3 文件(不超过 3 秒)使用了许多 amix 和 adelay 过滤器命令。不幸的是,每个 adelay 或 amix 命令需要 2 到 4 秒来执行,考虑到我应该对很多文件运行相同的操作,这已经很多了。这是我正在运行的两个命令示例:
混合物:
延迟:
我知道在视频中有一个选项(-preset ultrafast)可以加快执行速度,有没有办法对音频做同样的事情?