我正在iOS中处理语音音调识别问题,出于分析目的,我使用 python 它给了我适当的结果....但是当我尝试使用accelerate framework
在 iOS 中重新创建相同的内容,它会产生不正确或奇怪的结果。有人可以帮我这个。
我想使用autocorrelation
执行FFT convolution
,这在使用scipy.signal.fftconvolve
的 python 中非常有效。但是当我尝试使用vDSP_conv
做同样的事情时,它会给出不正确的结果。
如果有经验或知识的人可以指导我或解释fftconvolve如何运作,那将是一个很大的帮助。 提前谢谢。
答案 0 :(得分:0)
我需要看到您的代码完全回答这个问题但是基于vDSP_conv的Accelerate文档,您确定要正确传递参数吗?如果IF为正,则vDSP_conv将执行相关,如果IF为负,则执行卷积。您还需要注意正确指向您尝试执行卷积的矢量。当我将已翻译的Python代码引入Swift / ObjC并使用Accelerate框架时,我需要在简单的小向量上尝试加速函数,以确保我理解函数是如何工作的。< / p>
https://developer.apple.com/documentation/accelerate/1450516-vdsp_conv?language=objc