我一直在尝试确定Web Audio API是否可用于ArrayBuffer
比实时更快地分析音频数据。可能的应用程序将在浏览器中进行节拍检测、音高检测等,而不是将文件传递给服务器来完成这项工作。
该AnalyserNode
界面似乎非常适合此类任务,但感觉很笨拙,因为它仍然需要在获取任何数据之前链接到 aAudioBufferSourceNode
和ing 它。start()
而且,要比实时更快地完成它,需要提高它的速度,playbackRate
这会降低分析的质量。
或者,使用dsp.js可能更合适,但它的存储库几年来几乎不活跃,这并不是一个巨大的信任投票。
我想根本问题是:Web Audio API 是用于分析工作还是它的唯一目的(以及它的设计和优化目的)性能和播放?如果不是,是否有任何其他标准或工具被提议或专门用于音频分析?我是否通过提及 dsp.js 来回答我自己的问题?