我正在处理 iOS 中的音高识别问题,出于分析目的,我使用python它给了我适当的结果....但是当我尝试在iOS中使用accelerate framework
它重新创建相同的东西时,它给出了不正确或奇怪的结果。有人可以帮我解决这个问题。
我想执行autocorrelation
using ,这在python usingFFT convolution
中发生得很好。但是当我尝试使用它做同样的事情时,它会给出不正确的结果。scipy.signal.fftconvolve
vDSP_conv
如果有这方面经验或知识的人可以指导我或解释 fftconvolve 的工作原理,那将是一个很大的帮助。提前致谢。