问题标签 [minim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
processing - 音频文件的非实时 FFT 分析
我正在尝试对文件进行频谱分析。由于我要分析的文件可能很长(40 分钟左右),因此实时分析对我来说并不是一个真正的选择。
我目前正在使用 Minin 的 FFT 类,但看起来我只能运行一首已经在播放的歌曲。我也看过ess library,但我知道这也仅限于拥有实时流。
有没有办法只迭代小块的音频文件,然后在该数据上运行 fft?
这是我现在拥有的简化版本:
eclipse - Eclipse 中的最小库
我编写了一个使用 Minim 和 Processing IDE 的草图。一切正常。
我现在正计划改进它,并转移到 Eclipse,就像我在许多其他项目中所做的那样。我将构建路径配置为包含 minim.jar。所有的进口似乎都很好。但是我无法编译该项目,因为在初始化 de Minim 实例变量时出现以下错误:
构造函数 Minim(PApplet) 未定义
声明没有给出错误,所以我认为库加载正常。完全相同的代码在处理 IDE 中有效,但在 Eclipse 中无效。这是我的代码:
我不知道发生了什么。任何指针将不胜感激。
提前致谢。
processing - 使用 Minim 获得处理频率
我尝试使用处理从麦克风获取频率。我混合了文档中的两个示例,但“最高”并不是真正的赫兹(a 是 440 赫兹)。你知道如何拥有比这更好的东西吗?
java - JMF with Processing - 音频可视化器
我有这个很棒的音频可视化工具,它是用 Processing 2.0a5 和 minim 库创建的,它使用 fft 来分析音频数据。
所以现在我想做的是通过一个 url 导入歌曲源,比如从 soundcloud 中说。url 可能看起来像这样 - http://api.soundcloud.com/tracks/46893/stream?client_id=759a08f9fd8515cf34695bf3e714f74b返回 128 kbps mp3 流。我知道 JMF 2.1 支持用于流式音频的 URLDataSource,但我不确定 JMF 和 processing/minim/fft 是否能很好地一起播放。我对Java真的很陌生,但仍然不完全熟悉来龙去脉。我真的习惯了 php 和 html。我还看到 Soundcloud 在其 javascript SDK 中集成了 Soundmanager2 流媒体。不确定这是否会提供任何可能的集成解决方案。
理想情况下,我想用 php 和 html 向用户提供一份 soundcloud 歌曲列表,点击后,我想用我自己的可视化器播放歌曲,最好是我在处理过程中创建的。我很难让它发挥作用,而且我对 java 的无知绝对无济于事。如果可能的话,有什么关于实现这一点的最佳方法的建议吗?
stream - 如何在处理中使用 Minim 来计算 UDP 流样本的 FFT?
我需要在流上实时计算 FFT。我通过 UDP 端口接收带有字节数组的包。是否有可能以某种方式将它们转换为 Minim 可以分析的流?我搜索了很长时间,找到了一些可能的解决方案(FloatSampleBuffer、createSample),但我仍然不知道如何从中计算 FFT。
processing - 不明白 Minim Library 的 isRange(int low, int high, int threshold)
我见过很多具有该功能的程序,isRange(int low, int high, int threshold)
但我不明白它是如何工作的。
医生说:
在频率能量模式中,如果至少包含在范围 [low, high] 中的阈值带记录了节拍,则返回 true。在声能模式下,这总是返回 false。
为什么我不能设置大于 27 的高值?
audio - 处理:将记录的声学空间(脉冲响应)应用于音频文件
我需要将48kHz 的音频文件的脉冲响应应用于 44.1kHz 的音频文件。例如,可能是某人说话。如果我使用正确的术语,我需要将两个音频文件卷积在一起,这样听起来就像有人在大教堂里说话。
我不知道我是如何做到这一点的。我查看了 minim 库,因为它是我记得使用的唯一音频库,并且我找到了一个将低通滤波器的脉冲响应应用于音频文件的示例。有没有办法将两个音频文件卷积在一起以输出新声音?音频处理不是我的强项,所以请不要介意我的无知。谢谢,我正在努力解决这个问题。
audio - Arduino / 处理 Arduino 压电敲击时播放声音文件?
实际上,我们正在开发一个基于 Arduino 和 Processing 的项目。基本上解释一下,我们有多个爆震传感器(或压电)。我们的目标是在每次“敲击”piezzo 时启动一个声音文件,但我们遇到了一些关于从piezzo 获取数据的问题。我们在 Arduino 草图和 Processing 草图上工作,但我们没有设法在这两个草图之间建立路径。所以我们的问题是:在处理草图中,如何获取arduino草图的压电值并使其每次敲击时都会启动声音文件?
Arduino草图:
Processing Sketch(我们发现的一个开源示例,理论上,它正是我们正在寻找的东西)
请原谅我糟糕的英语!
java - Processing.org/最小 FFT 误差
我正在尝试使用 Minim FFT 库,但是在运行示例草图时,我遇到了以下问题:
我猜这个Java认为我正在尝试使用其他构造函数,但我无法终生弄清楚如何解决它。
下面是代码的相关部分:
signal-processing - 带处理和最小化的音符检测
我正在尝试创建一个能够检测乐器(吉他)音符的处理应用程序。例如,如果播放打开的“A”音符,我想做一些基于它的事情,比如在屏幕上显示音符或显示图像。
我被卡住了,不确定我是否做得对或如何继续。据我了解,我需要获得基频?如果是这样,我该如何得到它?似乎当我现在弹奏一个音符时,随着音符的进行,草图会显示出一堆不同的频率。我是否应该只尝试获取音符的开头或其他内容?
如果你看不出来,我是新手,所以要温柔;)这是我目前所拥有的: