使用CoreAudio获取正确的FileLengthFrames

时间:2017-04-26 22:14:34

标签: python objective-c core-audio extaudiofile

我正在努力将我的Python代码转换为Objective C以在ios设备上运行。关于阅读音频文件的代码。在Python中,我使用AudioSegment读取文件,结果是数组中的2个独立通道。

例如:

Left channel  [-1,-2,-3,-4,-5,-6,-7,-8,-9,-10]  //length = 10
Right channel [ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10]   //length = 10

所以python的总长度是 20

以下是我在目标c

中获得音频输出的方法
float *audioTotal = malloc(fileLengthInFrames * sizeof(float));
SInt16 *inputFrames = (SInt16*)bufferList->mBuffers[0].mData;
for(int i = 0; i < fileLengthInFrames; ++i) {
    audioTotal[i] = (float)inputFrames[i];
    printf("%f ", audioTotal[i]);
}

输出是:

[-1, 1, -2, 2, -3, 3, -4, 4, -5, 5] // length = 10

所以目标c的输出是混合左右声道。所以我必须通过代码将它们分开:

if (clientFormat.mChannelsPerFrame > 1) {
        int indexLeft = 0;
        int indexRight = 0;
        float *leftAudio = malloc(fileLengthInFrames* sizeof(float));
        float *rightAudio = malloc(fileLengthInFrames * sizeof(float));
        for(int i = 0; i < fileLengthInFrames; i++) {
            if (i%2 == 0) {
                leftAudio[indexLeft] = audioTotal[i];
                printf("%f ", leftAudio[indexLeft]);
                indexLeft ++;
            } else {
                rightAudio[indexRight] = audioTotal[i];
                printf("%f ", rightAudio[indexRight]);
                indexRight ++;
            }
        }
}

现在我有两个与目标c分开的通道:

Left channel  [-1,-2,-3,-4,-5]  //length = 5
Right channel [ 1, 2, 3, 4, 5]   //length = 5

所以我从目标c得到的总长度是10,而python是20。 我剩下的数据在哪里?我错过了一些步骤吗?还是错误的配置? 谢谢你的帮助。

1 个答案:

答案 0 :(得分:1)

如果你有交错的样本并且“按代码分开它们”,你就会忘记乘以channelsPerBuffer(这似乎是交错精明的?),所以对于立体声你错过了一半样品。尝试将for循环更改为

for(int i = 0; i < fileLengthInFrames*channelsPerBuffer; i++) {
    // display left and right samples here ...
}

audioTotal的长度也应为fileLengthInFrames*channelsPerBuffer

P.S。如果客户端和文件的采样率相同,为什么要重新计算fileLengthInFrames