我正在努力将我的 Python 代码转换为 Objective C 以在 ios 设备上运行。关于读取音频文件的代码。在 Python 中,我使用 AudioSegment 读取文件,结果是数组中有 2 个单独的通道。
例如:
Left channel [-1,-2,-3,-4,-5,-6,-7,-8,-9,-10] //length = 10
Right channel [ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10] //length = 10
所以python的总长度是20
这是我在目标 c 中获得音频输出的方法
float *audioTotal = malloc(fileLengthInFrames * sizeof(float));
SInt16 *inputFrames = (SInt16*)bufferList->mBuffers[0].mData;
for(int i = 0; i < fileLengthInFrames; ++i) {
audioTotal[i] = (float)inputFrames[i];
printf("%f ", audioTotal[i]);
}
输出是:
[-1, 1, -2, 2, -3, 3, -4, 4, -5, 5] // length = 10
因此,目标 c 的输出是左右声道混合的。所以我必须通过代码将它们分开:
if (clientFormat.mChannelsPerFrame > 1) {
int indexLeft = 0;
int indexRight = 0;
float *leftAudio = malloc(fileLengthInFrames* sizeof(float));
float *rightAudio = malloc(fileLengthInFrames * sizeof(float));
for(int i = 0; i < fileLengthInFrames; i++) {
if (i%2 == 0) {
leftAudio[indexLeft] = audioTotal[i];
printf("%f ", leftAudio[indexLeft]);
indexLeft ++;
} else {
rightAudio[indexRight] = audioTotal[i];
printf("%f ", rightAudio[indexRight]);
indexRight ++;
}
}
}
现在我有 2 个与目标 c 分离的通道:
Left channel [-1,-2,-3,-4,-5] //length = 5
Right channel [ 1, 2, 3, 4, 5] //length = 5
所以我从目标 c 得到的总长度是 10,而在 python 中是 20。我的其余数据在哪里?我错过了一些步骤吗?还是配置错误?感谢帮助。