远程IO音频非常嘈杂

时间:2011-12-14 07:54:59

标签: ios io core-audio noise audiobuffer

我是核心音频和远程io的新手。我需要大小为320字节的数据,我编码和发送。每秒至少50帧。这就是我所做的:

    AudioComponentDescription desc;

    desc.componentType = kAudioUnitType_Output;
    desc.componentSubType = kAudioUnitSubType_RemoteIO;
    desc.componentFlags = 0;
    desc.componentFlagsMask = 0;
    desc.componentManufacturer = 0;


    // Get component
    AudioComponent inputComponent = AudioComponentFindNext(NULL, &desc);

    // Get audio units
    AudioComponentInstanceNew(inputComponent, &audioUnit);

    // Enable IO for recording
    UInt32 flag = 1;                   AudioUnitSetProperty(audioUnit,  kAudioOutputUnitProperty_EnableIO,  kAudioUnitScope_Input,   kInputBus,  &flag,   sizeof(flag));

    // Enable IO for playback     AudioUnitSetProperty(audioUnit,  kAudioOutputUnitProperty_EnableIO,   kAudioUnitScope_Output,   kOutputBus, &flag,   sizeof(flag));

     UInt32 shouldAllocateBuffer = 1;
     AudioUnitSetProperty(audioUnit, kAudioUnitProperty_ShouldAllocateBuffer,      kAudioUnitScope_Global, 1, &shouldAllocateBuffer, sizeof(shouldAllocateBuffer));

    // Describe format
    audioFormat.mSampleRate = 8000.00;
    audioFormat.mFormatID = kAudioFormatLinearPCM;
    audioFormat.mFormatFlags = kAudioFormatFlagIsSignedInteger|kAudioFormatFlagIsPacked;
    audioFormat.mFramesPerPacket = 1;
    audioFormat.mChannelsPerFrame = 1;
    audioFormat.mBitsPerChannel = 16;
    audioFormat.mBytesPerPacket = 2;
    audioFormat.mBytesPerFrame = 2;


    // Apply format   AudioUnitSetProperty(audioUnit,  kAudioUnitProperty_StreamFormat,  kAudioUnitScope_Output, 1,   &audioFormat,  sizeof(audioFormat));

      AudioUnitSetProperty(audioUnit,  kAudioUnitProperty_StreamFormat,  kAudioUnitScope_Input,  0,  &audioFormat,  sizeof(audioFormat));

    // Set input callback
    AURenderCallbackStruct callbackStruct;
    callbackStruct.inputProc = recordingCallback;
    callbackStruct.inputProcRefCon = self;
        AudioUnitSetProperty(audioUnit,   kAudioOutputUnitProperty_SetInputCallback,   kAudioUnitScope_Global,   1,   &callbackStruct,   sizeof(callbackStruct));



    // Set output callback
    callbackStruct.inputProc = playbackCallback;
    callbackStruct.inputProcRefCon = self;
      AudioUnitSetProperty(audioUnit, kAudioUnitProperty_SetRenderCallback,  kAudioUnitScope_Global,   0, &callbackStruct,  sizeof(callbackStruct));


    // Initialise
    AudioUnitInitialize(audioUnit);

    AudioOutputUnitStart(audioUnit);

使用此设置,在尝试使用设备时,我在回调方法中获得186帧。 我已经通过缓冲区分配了:

    bufferList = (AudioBufferList*) malloc(sizeof(AudioBufferList));
    bufferList->mNumberBuffers = 1; //mono input
    for(UInt32 i=0;i<bufferList->mNumberBuffers;i++)
    {
          bufferList->mBuffers[i].mNumberChannels = 1;
          bufferList->mBuffers[i].mDataByteSize = 2*186;
          bufferList->mBuffers[i].mData = malloc(bufferList->mBuffers[i].mDataByteSize);
    } 

在回调中的这个372(2 x 186)字节中,我获取了320字节数据并按照我的要求使用。它工作正常,但非常嘈杂。

有人请帮助我。我遇到了大麻烦。

1 个答案:

答案 0 :(得分:1)

一些建议 -

  1. 使用AVAudioSession类设置采样率和缓冲区大小。
  2. 386是一个不寻常的帧数。您的回调可能要求512或1024.您可以尝试使用环形缓冲区来允许不同的缓冲区大小/帧速率变化以满足您的需求。
  3. 以下是一些例子:

    MixerHost
    TimeCode