问题标签 [fluidsynth]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - 在 OS X 上使用流体合成器将 MIDI 文件转换为 WAV
我正在尝试在 OS X 上将文件转换为MIDI
文件。WAV
到目前为止,我有这个:
这会创建一个文件,但是,该文件不是 WAV,鉴于我得到此输出output_sound
,它似乎是格式:sint16
有没有一种简单的方法可以将终端转换output_sound
为WAV
文件(或任何可编写脚本的方式)?
python - pyFluidsynth 'module' 对象没有属性 'Synth'
我有两个流体合成器
和 pyfluidsynth
安装。
但是,当我运行标准导入命令时,出现以下错误:
python - 运行pyfluidsynth + pyaudio demo,alsa和jack问题很多
我在这里关注演示。我对通过 python 创建音频非常陌生,所以我不确定如何调试我应该考虑哪些错误,我可能做错了什么天真的事情。
这是我的python错误:
我已经成功安装了 pyaudio、fluidsynth、pyfluidsynth,如果这有什么不同的话,我正在运行 ubuntu 12.10。
fluidsynth - 如何使用从一开始就指定的某些 cc 命令开始流体合成器播放?
如果我fluidsynth
从终端运行
然后我可以实时编写控制更改命令来更改播放。例如,
向通道 1 发送 CC#7 消息(通道音量),值为 0,表示通道 1 上的音量设置为 0。
现在,我想在调用时指定一堆这些 cc 命令fluidsynth
,这意味着在播放开始之前设置通道音量(反过来意味着我可以将所需的混音输出到音频文件,这是我的最终目标)。
阅读fluidsynth
手册时,我发现以下选项:
我猜这是我想要使用的,因为控制更改事件,在fluidsynth
手册的后面,列在 MIDI MESSAGES 下,而后者又列在 SHELL COMMANDS 下。但是,该手册并没有给我太多内容(引用的段落是关于此选项的唯一说明;没有示例,没有任何内容)。我尝试在 UNIX 中阅读配置文件,但无法解决任何问题。
我试过制作一个名为 的文件config
,用一堆 cc 命令填充它,如下所示:
然后尝试通过使用加载它
但是这种方法没有做任何事情(fluidsynth 也没有报告任何错误)。
python - 如何通过 Python 加 Mingus 设置多个乐器?
在下面的例子中,A 和 B 都有 setados 工具,但是 A 和 B 都只使用最后一个要设置的对象,就像重写一样。
如何在同一脚本中或以其他方式将 A 和 B 的工具设置为另一个仪器?
python - 只要我按下键(Fluidsynth),如何弹奏一个音符?
我目前正在研究一个 Raspberry Pi 项目,我正在寻找一种可能性,只要他们按下一个按钮(与 gpio 连接)就可以播放一个音符。我使用 pyFluidsynth 并让它工作,但只要我按下一个按钮,它就会拿着一个音符,它会非常快地重复它,但会慢到听不到它。
有什么我不知道的控制吗?我只是在使用noteon和noteoff,可能有类似“notehold”的东西吗?
谢谢!
python - 带有 Telnet 和 Python 的 Fluidsynth:没有声音
我一直在运行 Raspian 的 Raspberry Pi B 上使用 Fluidsynth(不是绝对最新的图像,因为 Fluidsynth 不会在最新版本上运行,但至少从 2014 年 4 月开始)。
我通过运行启动 Fluidsynthfluidsynth -a alsa -g 1 -s -o "shell.port=9800" /path/to/FluidR3_GM.sf2
我可以使用 Fluidsynth 自己的 shell 和类似的命令获得预期的音频输出noteon 1 54 100
,我还可以使用 telnet 服务器从单独的命令行获取音频以播放:
telnet localhost 9800
然后noteon
在它生成的子shell中输入标准命令。
不过,我的最终目标是从 python 发送这些 telnet 命令。
我尝试了以下代码,它没有返回错误:
但这无法产生任何声音。
在这一点上,我碰壁了,我不知道为什么 python 语句不起作用,但命令 shell 中的语句会起作用。他们不会做同样的事情吗?我错过了 telnet 协议的一些微妙之处吗?
python - 在 Python 中从 MIDI 到我的扬声器(声音合成)输出的真实音频的最简单方法是什么?
我正在开发一个需要从大量预加载的“.mid”文件中创建声音的应用程序。
我正在使用 Python 和 Kivy 创建一个应用程序,因为我已经使用这些工具制作了一个应用程序,它们是我知道的唯一代码。我制作的另一个应用程序没有任何声音。
自然,我想确保我编写的代码可以跨平台工作。
现在,我只是想证明我可以从 MIDI 音符中创造出任何真实的声音。
我从另一个使用 FluidSynth 和 Mingus 的类似问题的答案中提取了这段代码:
但我什么也没听到并收到此错误:
为什么我会收到这个错误,我该如何解决,这是最简单的方法还是正确的方法?
python - Fluidsynth 错误:“未定义名称‘ctypes’”
我正在尝试在我正在开发的游戏中使用 FluidSynth,但我似乎无法让 Fluidsynth 正常工作。每当我尝试导入时,我都会得到:
我读到您可以执行一些导入命令来消除 Ctypes 错误,但是当我尝试发生这种情况时:
我知道当您尝试运行不是为计算机处理器设计的应用程序时,通常会发生 win32 应用程序错误,但我下载 libfluidsynth.dll 的来源说它适用于 Windows 32。
我使用的是 Windows 7 64 位和 Python 2.6。
另外,我在我的 32 位计算机上下载了 Python,还下载了 pyFluidSynth 包和 FluidSynth DLL 本身,但是它告诉我它找不到 FluidSynth 库或其他东西。