我正在使用 Web Audio API 并试图找到一种导入 mp3 的方法(因此这仅在 Chrome 中),并在画布上生成它的波形。我可以实时执行此操作,但我的目标是比实时更快地执行此操作。
我能找到的所有示例都涉及从分析器对象读取频率数据,在附加到 onaudioprocess 事件的函数中:
processor = context.createJavascriptNode(2048,1,1);
processor.onaudioprocess = processAudio;
...
function processAudio{
var freqByteData = new Uint8Array(analyser.frequencyBinCount);
analyser.getByteFrequencyData(freqByteData);
//calculate magnitude & render to canvas
}
不过,它似乎analyser.frequencyBinCount
只在播放声音时才会填充(关于缓冲区被填充的事情)。
我想要的是能够尽可能快地手动/以编程方式逐步浏览文件,以生成画布图像。
到目前为止,我得到的是:
$("#files").on('change',function(e){
var FileList = e.target.files,
Reader = new FileReader();
var File = FileList[0];
Reader.onload = (function(theFile){
return function(e){
context.decodeAudioData(e.target.result,function(buffer){
source.buffer = buffer;
source.connect(analyser);
analyser.connect(jsNode);
var freqData = new Uint8Array(buffer.getChannelData(0));
console.dir(analyser);
console.dir(jsNode);
jsNode.connect(context.destination);
//source.noteOn(0);
});
};
})(File);
Reader.readAsArrayBuffer(File);
});
但是 getChannelData() 总是返回一个空类型数组。
任何见解都值得赞赏 - 即使事实证明它无法完成。我想我是互联网上唯一一个不想实时做事的人。
谢谢。