我正在尝试根据声音文件渲染音频波形。我找到了很多教程来展示如何做到这一点,但我没有找到太多的文档涵盖AVAsset
. 我查看了苹果文档,但我发现它有点含糊。
我真的很想了解基础知识而不是跳来跳去。我很难理解到底什么是轨道。如果我的资产是视频,我会有一个代表视频的轨道和另一个代表音频的轨道吗?
AVAssetTrack * someTrack = [songAsset.tracks objectAtIndex:0];
在上面的代码中,是objectAtIndex:0
表示“格式描述数组”吗?
我用什么AVAsset
来实现?样本集合?