从视图控制器

时间:2016-01-12 14:52:05

标签: ios swift ezaudio

我已经在swift中设置了一个EZAudio来计算实时麦克风输入的fft,然后我在fft数据上运行一个特殊的算法。

我的问题是当我把它放在视图控制器中时,我可以使用dispatch_async来访问fft数据。(参见最后一个函数的代码)

class MasterKey:NSObject,EZMicrophoneDelegate, EZAudioFFTDelegate{

var microphone: EZMicrophone!
var fft: EZAudioFFTRolling!

var tone:String = ""
var sampleRate:Float = 0.0
var fftWindowSize:vDSP_Length = 8192

var keys:MKHRangeToKey!


 init(tone:String){
    super.init()

    self.tone = tone

    /*
    * setup all dependencys for the fft analysis
    */

    //setup audio session
    let session = AVAudioSession.sharedInstance()
    do{
        try session.setCategory(AVAudioSessionCategoryPlayAndRecord)
        try session.setActive(true)
    }catch{
        print("Audio Session setup Fails")
    }

    //create a mic instance
    microphone = EZMicrophone(delegate: self, startsImmediately: true)

    self.sampleRate = Float(microphone.audioStreamBasicDescription().mSampleRate)

    //create a fft instace
    fft = EZAudioFFTRolling(windowSize: fftWindowSize, sampleRate: sampleRate, delegate: self)

    //start the mic
    microphone.startFetchingAudio()

    self.keys = MKHRangeToKey(tone: tone, sampleRate: sampleRate, fftWindowSize: Int(fftWindowSize))

}

//get the mic data
func microphone(microphone: EZMicrophone!, hasAudioReceived buffer: UnsafeMutablePointer<UnsafeMutablePointer<Float>>, withBufferSize bufferSize: UInt32, withNumberOfChannels numberOfChannels: UInt32) {

    //calc the fft
    if fft != nil{
        fft.computeFFTWithBuffer(buffer[0], withBufferSize: bufferSize)
    }

}


//get the fft data from last calculstion
func fft(fft: EZAudioFFT!, updatedWithFFTData fftData: UnsafeMutablePointer<Float>, bufferSize: vDSP_Length){

    dispatch_async(dispatch_get_main_queue(), {

        print(fftData)


    })
}
}

但是我怎么能把它放在一个单独的类中,以便在需要时调用它?

请求帮助

1 个答案:

答案 0 :(得分:0)

你表示你正在使用Swift。为什么不创建一个单独的AudioFunctions.swift文件并在那里移动函数(和任何相关的东西)?您可以在应用中的任何位置拨打电话,而无需担心include

重要说明:函数不必属于类。