问题标签 [avconv]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ffmpeg - 无法使用 avconv 录制 S-Video
我一直在尝试使用 avconv 从我的 S-Video 电缆录制提要。我可以使用 avconv 录制复合视频,但质量不是最好的。为了设置输入,我使用v4l2-ctl -i $n
,其中$n
0 表示复合,或 1 表示 S-Video。我尝试使用v4l2-ctl -i 1
设置输入,但这不起作用。奇怪的是,当我使用 tvtime 或 qv4l2 时,我可以观看视频。
我可以录制音频,但不能录制视频。在 tvtime 中,我可以获得音频和视频。此外,我还可以使用该-channel
选项使用 ffmpeg 录制 S-Video。ffmpeg,顺便说一句,无法录制音频,并且录制单独的音频不是一种选择。
编辑:根据 Anton 的要求,这是我使用 avconv 捕获视频的命令。
这是此命令的输出:
node.js - 为什么 node.js 找不到 avconv?
为什么在 node.js 中使用 exec:
我收到一个错误:
在bash中我可以正常执行。对于 node.js 开发,我使用 nodeeclipse。
bash - 如何制作固定时长的视频
我有视频:
视频1 - 923 秒
视频2 - 1457 秒
视频3 - 860 秒
我需要剪切这些视频并修复其持续时间 - 600 秒。但困难是我需要在计划下削减它们
在哪里 :
蓝色段始终为 120 秒(固定);
我应该剪掉的红色部分;
我不应该剪掉的绿色部分。
之后我需要在新的 600 秒视频中加入蓝色和绿色段,例如
由于video1、video2、video3的时长不同,那么红色和绿色段的时长必然不同,它们与视频时长的比例必须相等。
我需要纯 ffmpeg (avconv) 命令或 bash 脚本。我不知道怎么做。
transparency - 如何将具有透明度的水印渲染到视频中
我正在尝试将水印渲染到视频中。当水印的图像文件 (.png) 包含透明度时,图像不再呈现到视频中。如果我将该图像转换为 .jpg 并返回 .png 效果很好。如果我创建一个没有透明度的新 png,它也可以工作。但是当我向该图像添加例如图层不透明度时,它不再被渲染。
我使用 avconv 0.8.6-4:0.8.6-0ubuntu0.12.04.1 和以下命令
如果我使用 .gif 作为水印,我会得到图像,但它都是不透明的。
有什么线索吗?
bash - 在用户输入时停止 avconv Bash 脚本并继续循环
基本上(希望)我想从网络摄像头录制视频流并将其保存在特定目录中,然后在用户输入一些数字时将其终止。我没有很好地解释这一点,所以这就是我目前正在做的事情:
所以我想停止录制并在新的 $YOURNUMBER 文件夹中开始新的录制。有任何想法吗?(对此很陌生……请耐心等待!)
更新:
感谢@TrueY
更新的脚本(不需要 mkdir 真的把它拿出来):
唯一的麻烦是我(或最终用户)必须输入两次数字才能再次开始录制。
mp3 - 使用 avconv 和 youtube-dl 从 flv 转换为 mp3 后持续时间错误
我使用 youtube-dl 下载 youtube 视频并将其转换为 mp3。
现在看起来所有的 mp3 文件都有一个不寻常的长持续时间,使用 amarok 或类似的东西会产生很长的时间间隔而没有声音。我查看了 flv 文件,似乎时间/持续时间就在那里,但是 avconv 转换并更改了时间。所以原来的 song.flv 时长是 04:42,而 output.mp3 时长是 17:20。如果我写
输出:
Input #0, mp3, from 'Rihanna - Diamonds.mp3':
Metadata:
encoder : Lavf53.21.1
Duration: 00:04:42.98, start: 0.000000, bitrate: 117 kb/s
Stream #0.0: Audio: mp3, 44100 Hz, stereo, s16, 32 kb/s
At least one output file must be specified
所以持续时间输出是正确的,但它不会在 amarok 中显示。另一方面,Vlc 会自行计算持续时间,但时间会不断变化,直到歌曲结束。
有没有办法改变全局 id3_v2 时间/持续时间标签,所以我可能会在从 youtube-dl 下载后对我的所有文件运行一个脚本。或者也许这个错误有修复?
linux - Drawtext FPS avconv
是否可以使用关闭 avconv 的 drawtext 编写 fps,我找不到有关它的信息。
我在没有drawtext的情况下使用的完整命令:
libav - 使用 avconv 将 2 张图片添加到视频中
这是我用来向流中添加徽标的命令
如何将第二张图片添加到流中?有没有办法在不使用 -filter_complex 的情况下做到这一点,因为它不可用?
谢谢你。
ffmpeg - ffmpeg/avconv 将流的 rtp 转储或 pcap 作为输入
我试图让ffmpeg(或avconv)将某种代表rtp转储的文件作为输入源并将其输出到视频中。
ffmpeg -i rtp://<ip_addr>:<port> <outputfile>
在我指定类似orffmpeg -i sdp.sdp <outputfile>
然后流(使用rtpplay
from an rtpdump
)到该地址/端口的情况下,我可以让它正常工作。但是,我想将实际rtpdump
本身作为输入 - 或者表示可以作为文件(而不是流式传输)输入的 rtp 或 rtp 有效负载的东西。
到目前为止,rtpdump
我尝试输入到 ffmpeg 的任何类型似乎都不起作用(通常抱怨无法找到我实际上没有使用的有效负载类型的编解码器参数,这让我质疑输入文件的格式) .
有人知道这样做的方法吗?我不太关心输入rtpdump
本身是什么,但是从wireshark
pcap 派生的东西会很好。
谢谢
build - 为 STM32F4-Discovery 编译和构建 avconv/ffmpeg 的 Slim 版本 - armv7 thumb 1/2 架构
这是我第一次尝试在 Stack Overflow 上发帖寻求帮助。
我的项目:使用带有 STM32F407VGT6 芯片的 STM32F4-Discovery 和 FPv4-SP 和相机/LCD 外围设置,我需要以 QVGA 录制视频并输出为压缩比至少为 25:1 的 MPEG-4 格式。
我已经确定了所需的编解码器库(avconv,除非 ffmpeg 证明更有用),现在我正在尝试构建编译器选项,为我提供一个能够在 ANSI-C 芯片上执行的轻量级版本和拇指架构。
该板的空间非常有限(192KB SRAM 和 1MB 闪存 - 有扩展的可能性,但最好只使用我所拥有的),目前任一库的“主要”可执行文件都超过 1MB。
从我尝试过的不同解决方案的输出来看 - 似乎很多编译器选项都没有成功应用于构建。所以我的问题是:
1) 是否可以仅使用 rawvideo 解码器、mpeg4 编码器和最基本的实用程序将任一库编译到所需的空间?如果没有,有没有估计需要多少?
2)我花了很多时间在互联网上搜索,但似乎没有人尝试过 - 有没有人可以告诉我其他情况?
我手头有我的配置/构建脚本,任何人都想看看我是否错过了一些基本的东西。只要问,我会通过电子邮件发送它,我不想让线程变得比我看似冗长的调查已经拥有的更多。
我认为这两个库都不太可能损坏。我一直在 Ubuntu 12.04 32 位上尝试这个。
我是一名软件实习生,非常感谢任何可用的帮助。
最后一个问题,如果我的解决方案被证明不可行,是否有另一个开源 mpeg4 压缩库可以为嵌入式 ARMv7E-M/Thumb 集架构轻松编译?
编辑:这是以前未包含的构建命令。
这是我获得并修改的脚本。它最初是为 ARMv7-a 成功构建的,它不会在 ARMv7e-m 芯片(发现板)上执行。