0

我已经快速设置了一个 EZAudio 来计算实时麦克风输入的 fft,然后我在 fft 数据上运行一个特殊的算法。

我的问题是当我将它放在视图控制器中时,我可以使用 dispatch_async 访问 fft 数据。(参见最后一个函数的代码)

class MasterKey:NSObject,EZMicrophoneDelegate, EZAudioFFTDelegate{

var microphone: EZMicrophone!
var fft: EZAudioFFTRolling!

var tone:String = ""
var sampleRate:Float = 0.0
var fftWindowSize:vDSP_Length = 8192

var keys:MKHRangeToKey!


 init(tone:String){
    super.init()

    self.tone = tone

    /*
    * setup all dependencys for the fft analysis
    */

    //setup audio session
    let session = AVAudioSession.sharedInstance()
    do{
        try session.setCategory(AVAudioSessionCategoryPlayAndRecord)
        try session.setActive(true)
    }catch{
        print("Audio Session setup Fails")
    }

    //create a mic instance
    microphone = EZMicrophone(delegate: self, startsImmediately: true)

    self.sampleRate = Float(microphone.audioStreamBasicDescription().mSampleRate)

    //create a fft instace
    fft = EZAudioFFTRolling(windowSize: fftWindowSize, sampleRate: sampleRate, delegate: self)

    //start the mic
    microphone.startFetchingAudio()

    self.keys = MKHRangeToKey(tone: tone, sampleRate: sampleRate, fftWindowSize: Int(fftWindowSize))

}

//get the mic data
func microphone(microphone: EZMicrophone!, hasAudioReceived buffer: UnsafeMutablePointer<UnsafeMutablePointer<Float>>, withBufferSize bufferSize: UInt32, withNumberOfChannels numberOfChannels: UInt32) {

    //calc the fft
    if fft != nil{
        fft.computeFFTWithBuffer(buffer[0], withBufferSize: bufferSize)
    }

}


//get the fft data from last calculstion
func fft(fft: EZAudioFFT!, updatedWithFFTData fftData: UnsafeMutablePointer<Float>, bufferSize: vDSP_Length){

    dispatch_async(dispatch_get_main_queue(), {

        print(fftData)


    })
}
}

但是我怎么能把它放在一个单独的类中,以便在需要时调用它呢?

请求帮助

4

1 回答 1

0

您表示您正在使用 Swift。为什么不直接创建一个单独的AudioFunctions.swift文件并将函数(以及任何相关的东西)移到那里呢?您可以从应用程序中的任何位置调用它,而无需担心include.

重要提示:函数不必属于某个类。

于 2016-01-12T16:42:18.523 回答