问题标签 [avisynth]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 找不到音频流
在 ffmpeg 和 directshow 的帮助下,我正在尝试调整代码以添加声音捕获功能(在实时流上)。
当我尝试使用 ffplay 播放 AVIsynth 文件时,一切正常,我得到了音频和视频。但是当我通过代码打开这个输入文件时,我只能找到视频流。
AVS 文件:
开箱码:
当我在打开后对 gdb 进行变量监视时。
我正在查看 pFormatCtx->nb_streams 中的 nb_streams,它位于 1 我可以在 pFormatCtx->stream 中找到的唯一流是视频流。这就是为什么我无法捕捉到声音。
所以我在问我是否在开场时做错了什么,或者我是否错过了什么。
Ps:我知道显示的代码很短,但问题出现在这一步!
谢谢
库尔特
- 编辑 -
我还注意到,当我转储 AVFormatContext 时,视频流的大小为 456x32。当我尝试使用 ffplay 启动损坏的脚本时,我可以找到显示的窗口大小相同。
我用 ffplay 播放正确脚本时的原始视频格式是 1920x1080
我认为我的问题可能比无法获取音频流的简单事实更深。
我试图找出如何知道这个 456x32 窗口上显示的错误消息
-- 编辑2 --
我找出了这张图片上写的内容,我的问题就解决了,放置不好的 avs 脚本是旧的。
我很惭愧。
ffmpeg - 使用 avs2yuv 将 avs 管道传输到 ffmpeg
我正在尝试使用 avs2yuv 将 avs 输出通过管道传输到 ffmpeg 以进行进一步转换。
我的视频文件名为“sample.avi”(没有声音,只有视频)
我的音频文件名为“sample.wav”
我的 avs 文件名为 sample.avs,如下所示:
或者
- 这是我管道的方式:
现在问题来了:无论我尝试输入什么文件,我的输出中都没有声音。我不明白我做错了什么,以及为什么我的音频没有输出。如果有人对 avisynth 和 avs2yuv 有经验,我们将非常感谢您的帮助。
谢谢!
windows - 是否有任何帮助工具“即时”创建图形编辑文件(以编程方式)
我注意到avisynth只能通过包含该源的graphedit文件接受“实时直接显示源”作为输入。如果您知道捕获源名称(和/或您希望从该引脚获得的输出格式),是否有任何帮助工具可以即时创建图形编辑文件?
参考:http ://betterlogic.com/roger/2012/05/avisynth-live-capture
此处描述了graphedit文件语法:http: //msdn.microsoft.com/en-us/library/windows/desktop/dd388788 (v=vs.85).aspx (虽然它没有提到如何发现正确的值放在那里)。
video - 使用avisynth批量标准化几个视频文件?
我的问题是两个部分。
首先,我想标准化几个视频剪辑的音频,以便在回放时,所有剪辑的音频音量相对相同。我不确定如何做到这一点,但我确信这很简单。我已经看过 Normalize 函数,但我想参考所有其他剪辑而不是其本身进行标准化。提前感谢您对此的任何帮助。
其次,更重要的是,我想知道是否有脚本之外的工具可以将单个 avisynth 脚本应用于多个剪辑。
video - 用于马赛克视频输出的命令行视频工具
我正在寻找一个在linux上运行的命令行视频工具,它是可编写脚本的,它可以提供一个带有马赛克视频的输出视频。问题是,马赛克视频必须在输出内部发生变化。想象一个 4*4 的马赛克视频,但输入视频比 16 多,因此例如每 10 秒我必须将马赛克中的一个图块更改为另一个视频。
我找到了可以生成马赛克输出的命令行 VLC 工具和 avisynth,但正如我所见,它们不支持上述不断变化的视频。
有人知道其他选择吗?
提前致谢!
overlay - 使用 Avisynth 在视频上叠加多个图像
我已经阅读了很多关于如何在 AviSynth 中叠加图像的教程,但想知道是否有一种方法可以在视频的特定时间位置放置多个图像。我已经能够使用透明的 png 徽标渲染视频,但没有找到任何教程如何将不同的图像放置在不同的帧位置。
avisynth - avs2avi 剥离音频通道?
我正在尝试使用我编写的命令行向导构建视频。为此,我正在构建一个 AVISynth 文件(在本例中是一个巨大的 1,820 行、94Kb 文件)并用于avs2avi
渲染它。
它工作得很好,但由于某种原因它不保存音频。
这是我的 AVS 的总体布局:
它在媒体播放器、音频和所有设备中都能正常播放。但是使用这个命令行:
它在没有任何声音的情况下渲染视频。同样,如果我删除-c XVID
参数,我会得到一个对话框,询问我压缩格式,但我仍然没有声音。
什么给了,我该如何解决这个问题?我看到的唯一选择是使用 VirtualDub 之类的东西将音轨放回原处,但这似乎很麻烦。
编辑:它也不适用于简单的脚本。
在媒体播放器中产生声音,并通过avs2avi
.
audio - 水平并排显示两个视频并导出为一个视频
我想要实现的目标:以编程方式(使用某种脚本)将两个不同的视频组合到一个视频中,其中视频并排显示,两个视频的声音同时播放。
我发现至少有两种方法可以并排显示两个视频,但在每一种方法中,我都有一个不同的问题,这使得该过程难以完成:
Avisyth 和 Avs2Avi:
Avisyth 确实让这个过程变得简单。使用这样一个简单的 Avisyth 脚本,您应该能够并排播放两个视频:video1=AVISource("d:\file1.avi")
video2=AVISource("d:\file2.avi")
StackHorizontal(video1,video2)
可以使用 avs2avi 创建新的输出文件。
这里的问题是我什至无法使用avisyth 播放一个avi 文件,因为我收到“AviSource 无法找到fourcc xvid 的解压缩器”消息。我搜索了该问题的解决方案,但没有任何帮助。GSpot 说我拥有所需的所有编解码器,但我似乎无能为力。因为我无法播放真实视频,所以我不知道最终视频是否会播放两个视频中的声音。Avisyth 安装正确,我能够运行以下脚本 StackHorizontal(version ,version)。ffmpeg
就像一个有两个视频和最终文件的魅力但是我没有从两个视频中得到声音,而只有第一个。我发现从第二个视频中添加声音的解决方案是在命令行中使用 libfaac,如下所示:
ffmpeg.exe -i video1.mp4 -vf "[in] scale=iw/2:ih/2, pad=2*iw:ih [left]; movie=video2.mp4, scale=iw/3:ih/3 [right]; [left][right] overlay=main_w/2:0 [out]" -c:a libfaac -b:v 768k Output.mp4
但我总是收到一个错误,即找不到编码器 libfaac。我下载了 libfaac.dll 但仍然没有结果。
有没有解决这些问题的方法?是否有另一种方法可以通过并排播放的两个视频以编程方式制作一个视频?提前致谢。
avisynth - 如何在 AviSynth 中获取当前帧号?
在 AviSynth 中,有没有返回当前帧号的函数?如果没有,我怎样才能得到当前的帧号?
这是我的问题,但对于质量标准:
目标是在条件语句中使用它,以便在将编码与其源进行比较时清楚地看到什么。类似于以下内容。
command-line - 仅使用命令行将从 VirtualDubMod 读取的视频保存到文件?
我想在服务器上使用 Avisynth 编译几个视频剪辑。我生成 .avs 文件并让 VirtualDubMod 读取该文件。
如何仅使用命令行将从 VirtualDubMod 读取的视频保存到 avi 文件?如果我打开 VirtualDubMod,那么我可以选择另存为,但我把它放在服务器上,所以没有可用的 GUI,它应该是自动的。
编辑:
在看了更多之后,我发现了这个。这是推荐的方法吗?