0

我正在处理 iOS 中的音高识别问题,出于分析目的,我使用python它给了我适当的结果....但是当我尝试在iOS中使用accelerate framework它重新创建相同的东西时,它给出了不正确或奇怪的结果。有人可以帮我解决这个问题。

我想执行autocorrelationusing ,这在python usingFFT convolution中发生得很好。但是当我尝试使用它做同样的事情时,它会给出不正确的结果。scipy.signal.fftconvolvevDSP_conv

如果有这方面经验或知识的人可以指导我或解释 fftconvolve 的工作原理,那将是一个很大的帮助。提前致谢。

4

1 回答 1

0

我需要查看您的代码才能完全回答这个问题,但是根据 vDSP_conv 的 Accelerate 文档,您确定您正确传递了参数吗?如果 IF 为正,vDSP_conv 将执行相关,如果 IF 为负,则执行卷积。您还需要小心正确指向您尝试执行卷积的向量。当我将 Python 代码翻译成 Swift/ObjC 并使用 Accelerate 框架时,我需要在简单的小向量上尝试 Accelerate 函数,以确保我了解这些函数是如何工作的。

https://developer.apple.com/documentation/accelerate/1450516-vdsp_conv?language=objc

于 2017-08-31T02:05:06.567 回答