从最近几天开始,我正在开发一个 iphone 应用程序,该应用程序需要记录用户音频并将其与背景音乐一起保存,简单来说,通过附加两个音频文件生成第三个音频文件,我尝试使用 AudioToolBox api 来完成但没有成功,任何人都可以建议我正确的方向去哪里寻求任何建议,???
谢谢,
从最近几天开始,我正在开发一个 iphone 应用程序,该应用程序需要记录用户音频并将其与背景音乐一起保存,简单来说,通过附加两个音频文件生成第三个音频文件,我尝试使用 AudioToolBox api 来完成但没有成功,任何人都可以建议我正确的方向去哪里寻求任何建议,???
谢谢,
你可以这样做
- (BOOL) combineVoices1
{
NSError *error = nil;
BOOL ok = NO;
NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
NSString *documentsDirectory = [paths objectAtIndex:0];
CMTime nextClipStartTime = kCMTimeZero;
//Create AVMutableComposition Object.This object will hold our multiple AVMutableCompositionTrack.
AVMutableComposition *composition = [[AVMutableComposition alloc] init];
AVMutableCompositionTrack *compositionAudioTrack = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
[compositionAudioTrack setPreferredVolume:0.8];
NSString *soundOne =[[NSBundle mainBundle]pathForResource:@"test1" ofType:@"caf"];
NSURL *url = [NSURL fileURLWithPath:soundOne];
AVAsset *avAsset = [AVURLAsset URLAssetWithURL:url options:nil];
NSArray *tracks = [avAsset tracksWithMediaType:AVMediaTypeAudio];
AVAssetTrack *clipAudioTrack = [[avAsset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[compositionAudioTrack insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset.duration) ofTrack:clipAudioTrack atTime:kCMTimeZero error:nil];
AVMutableCompositionTrack *compositionAudioTrack1 = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
[compositionAudioTrack setPreferredVolume:0.3];
NSString *soundOne1 =[[NSBundle mainBundle]pathForResource:@"test" ofType:@"caf"];
NSURL *url1 = [NSURL fileURLWithPath:soundOne1];
AVAsset *avAsset1 = [AVURLAsset URLAssetWithURL:url1 options:nil];
NSArray *tracks1 = [avAsset1 tracksWithMediaType:AVMediaTypeAudio];
AVAssetTrack *clipAudioTrack1 = [[avAsset1 tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[compositionAudioTrack1 insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset.duration) ofTrack:clipAudioTrack1 atTime:kCMTimeZero error:nil];
AVMutableCompositionTrack *compositionAudioTrack2 = [composition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
[compositionAudioTrack2 setPreferredVolume:1.0];
NSString *soundOne2 =[[NSBundle mainBundle]pathForResource:@"song" ofType:@"caf"];
NSURL *url2 = [NSURL fileURLWithPath:soundOne2];
AVAsset *avAsset2 = [AVURLAsset URLAssetWithURL:url2 options:nil];
NSArray *tracks2 = [avAsset2 tracksWithMediaType:AVMediaTypeAudio];
AVAssetTrack *clipAudioTrack2 = [[avAsset2 tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
[compositionAudioTrack1 insertTimeRange:CMTimeRangeMake(kCMTimeZero, avAsset2.duration) ofTrack:clipAudioTrack2 atTime:kCMTimeZero error:nil];
AVAssetExportSession *exportSession = [AVAssetExportSession
exportSessionWithAsset:composition
presetName:AVAssetExportPresetAppleM4A];
if (nil == exportSession) return NO;
NSString *soundOneNew = [documentsDirectory stringByAppendingPathComponent:@"combined10.m4a"];
//NSLog(@"Output file path - %@",soundOneNew);
// configure export session output with all our parameters
exportSession.outputURL = [NSURL fileURLWithPath:soundOneNew]; // output path
exportSession.outputFileType = AVFileTypeAppleM4A; // output file type
// perform the export
[exportSession exportAsynchronouslyWithCompletionHandler:^{
if (AVAssetExportSessionStatusCompleted == exportSession.status) {
NSLog(@"AVAssetExportSessionStatusCompleted");
} else if (AVAssetExportSessionStatusFailed == exportSession.status) {
// a failure may happen because of an event out of your control
// for example, an interruption like a phone call comming in
// make sure and handle this case appropriately
NSLog(@"AVAssetExportSessionStatusFailed");
} else {
NSLog(@"Export Session Status: %d", exportSession.status);
}
}];
return YES;
}
您不会找到任何预卷工具来执行此操作,但是一旦您将记录位降低,这并不太难。之后,您需要将文件与背景音乐混合,只需将原始样本添加在一起即可完成。
要使该部分正常工作,您需要将背景音乐从您使用的任何压缩格式解码为原始 PCM,以便您可以直接操作样本。我已经很久没有做任何 iOS 开发了,所以我不知道 iOS SDK 是否能够直接执行此操作,或者您是否需要将 libffmpeg 与您的代码捆绑在一起(或类似的东西)。但是 IIRC,iPhone 确实支持将压缩音频解码为 PCM,但不支持对其进行编码(稍后会详细介绍)。
否则,您可以将压缩(作为 zip,而不是 mp3/aac/ogg/whatever)原始 PCM 文件与您的应用程序一起分发并解压缩以直接获取示例数据。
获得最终混音后,您可以将其作为原始 PCM 直接通过播放设备流式传输回来。如果您需要保存或导出它,则需要再次查看解码/编码库。
根据这个问题的经验,您可能希望在与背景音乐混合之前对人声进行一些基本处理。首先,您需要将背景音轨标准化为 -3dB(左右),以便在音乐中可以听到用户的声音。其次,您应该对人声应用高通滤波器以去除所有低于 60Hz 的频率,因为 iPhone 的麦克风可以拾取风声或其他背景噪音。最后,您可能希望对人声样本应用压缩+限制器,以使人声在安静的伸展过程中更容易听到。
不幸的是,您提出的问题并不像“仅使用函数 mixdownTracksTogether()”那么简单,但是您绝对可以通过将其他工具和函数链接在一起来实现这一点。希望这能让你走上正轨!