1

从最近几天开始,我正在开发一个 iphone 应用程序,该应用程序需要记录用户音频并将其与背景音乐一起保存,简单来说,通过附加两个音频文件生成第三个音频文件,我尝试使用 AudioToolBox api 来完成但没有成功,任何人都可以建议我正确的方向去哪里寻求任何建议,???

谢谢,

4

2 回答 2

2

你可以这样做

- (BOOL) combineVoices1
{
    NSError *error = nil;
    BOOL ok = NO;


    NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,    NSUserDomainMask, YES);
    NSString *documentsDirectory = [paths objectAtIndex:0];


    CMTime nextClipStartTime = kCMTimeZero;
    //Create AVMutableComposition Object.This object will hold our multiple AVMutableCompositionTrack.
    AVMutableComposition *composition = [[AVMutableComposition alloc] init];

    AVMutableCompositionTrack *compositionAudioTrack = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
    [compositionAudioTrack setPreferredVolume:0.8];
    NSString *soundOne  =[[NSBundle mainBundle]pathForResource:@"test1" ofType:@"caf"];
    NSURL *url = [NSURL fileURLWithPath:soundOne];
    AVAsset *avAsset = [AVURLAsset URLAssetWithURL:url options:nil];
    NSArray *tracks = [avAsset tracksWithMediaType:AVMediaTypeAudio];
    AVAssetTrack *clipAudioTrack = [[avAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
    [compositionAudioTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset.duration) ofTrack:clipAudioTrack atTime:kCMTimeZero error:nil];

    AVMutableCompositionTrack *compositionAudioTrack1 = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
    [compositionAudioTrack setPreferredVolume:0.3];
    NSString *soundOne1  =[[NSBundle mainBundle]pathForResource:@"test" ofType:@"caf"];
    NSURL *url1 = [NSURL fileURLWithPath:soundOne1];
    AVAsset *avAsset1 = [AVURLAsset URLAssetWithURL:url1 options:nil];
    NSArray *tracks1 = [avAsset1 tracksWithMediaType:AVMediaTypeAudio];
    AVAssetTrack *clipAudioTrack1 = [[avAsset1 tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
    [compositionAudioTrack1 insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset.duration) ofTrack:clipAudioTrack1 atTime:kCMTimeZero error:nil];


    AVMutableCompositionTrack *compositionAudioTrack2 = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
    [compositionAudioTrack2 setPreferredVolume:1.0];
    NSString *soundOne2  =[[NSBundle mainBundle]pathForResource:@"song" ofType:@"caf"];
    NSURL *url2 = [NSURL fileURLWithPath:soundOne2];
    AVAsset *avAsset2 = [AVURLAsset URLAssetWithURL:url2 options:nil];
    NSArray *tracks2 = [avAsset2 tracksWithMediaType:AVMediaTypeAudio];
    AVAssetTrack *clipAudioTrack2 = [[avAsset2 tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
    [compositionAudioTrack1 insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset2.duration) ofTrack:clipAudioTrack2 atTime:kCMTimeZero error:nil];



    AVAssetExportSession *exportSession = [AVAssetExportSession
                                           exportSessionWithAsset:composition
                                           presetName:AVAssetExportPresetAppleM4A];
    if (nil == exportSession) return NO;

    NSString *soundOneNew = [documentsDirectory stringByAppendingPathComponent:@"combined10.m4a"];
    //NSLog(@"Output file path - %@",soundOneNew);

    // configure export session  output with all our parameters
    exportSession.outputURL = [NSURL fileURLWithPath:soundOneNew]; // output path
    exportSession.outputFileType = AVFileTypeAppleM4A; // output file type

    // perform the export
    [exportSession exportAsynchronouslyWithCompletionHandler:^{

        if (AVAssetExportSessionStatusCompleted == exportSession.status) {
            NSLog(@"AVAssetExportSessionStatusCompleted");
        } else if (AVAssetExportSessionStatusFailed == exportSession.status) {
            // a failure may happen because of an event out of your control
            // for example, an interruption like a phone call comming in
            // make sure and handle this case appropriately
            NSLog(@"AVAssetExportSessionStatusFailed");
        } else {
            NSLog(@"Export Session Status: %d", exportSession.status);
        }
    }];


    return YES;


}
于 2013-04-11T08:22:59.313 回答
1

您不会找到任何预卷工具来执行此操作,但是一旦您将记录位降低,这并不太难。之后,您需要将文件与背景音乐混合,只需将原始样本添加在一起即可完成。

要使该部分正常工作,您需要将背景音乐从您使用的任何压缩格式解码为原始 PCM,以便您可以直接操作样本。我已经很久没有做任何 iOS 开发了,所以我不知道 iOS SDK 是否能够直接执行此操作,或者您是否需要将 libffmpeg 与您的代码捆绑在一起(或类似的东西)。但是 IIRC,iPhone 确实支持将压缩音频解码为 PCM,但不支持对其进行编码(稍后会详细介绍)。

否则,您可以将压缩(作为 zip,而不是 mp3/aac/ogg/whatever)原始 PCM 文件与您的应用程序一起分发并解压缩以直接获取示例数据。

获得最终混音后,您可以将其作为原始 PCM 直接通过播放设备流式传输回来。如果您需要保存或导出它,则需要再次查看解码/编码库。

根据这个问题的经验,您可能希望在与背景音乐混合之前对人声进行一些基本处理。首先,您需要将背景音轨标准化为 -3dB(左右),以便在音乐中可以听到用户的声音。其次,您应该对人声应用高通滤波器以去除所有低于 60Hz 的频率,因为 iPhone 的麦克风可以拾取风声或其他背景噪音。最后,您可能希望对人声样本应用压缩+限制器,以使人声在安静的伸展过程中更容易听到。

不幸的是,您提出的问题并不像“仅使用函数 mixdownTracksTogether()”那么简单,但是您绝对可以通过将其他工具和函数链接在一起来实现这一点。希望这能让你走上正轨!

于 2011-11-11T13:13:04.247 回答