问题标签 [the-amazing-audio-engine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何将 AU3DMixer 与神奇的音频引擎一起使用?
我正在使用(确实!)Amazing Audio Engine来播放一些曲目(使用AUFilePlayer
, 每个都在一个单独的 中AEAudioChannel
),效果很好。
现在,我想添加 3D Mixer Audio Unit kAudioUnitSubType_AU3DMixerEmbedded
,但是在搜索高低之后,我找不到任何关于如何做到这一点的信息。
- 我应该创建一个 3D 混合器并将其添加为每个通道的过滤器吗?(试过这个,但声音总是平移 50/50%,尽管我设置的任何属性。
- 或者我应该破解 TAAE 并更改内部多通道混音器(听起来不是个好主意)
- 或者这根本不可能,我应该直接使用 Core Audio 而不使用 TAAE?
我对 3D 混音器的工作原理也有基本的了解,并遵循了我能找到的所有示例,例如Apple 的 TN2112
以下是我尝试将 3D 混音器添加到频道的方法:
音频正在播放(所以我假设一切都设置好了)。但是,似乎没有任何参数起作用。90° 的方位角和 10 m 的距离肯定会导致平移输出。
ios - 初始化 The Amazing Audio Engine 后,视频录制中没有音频(使用 GPUImage)
我在我的项目中使用了两个第三方工具。一个是“惊人的音频引擎”。我将它用于音频过滤器。另一个是 GPUImage,或者更具体地说,是GPUImageMovieWriter。当我录制视频时,我会将录音与视频合并。这工作正常。但是,有时我不使用 The Amazing Audio Engine,而只是使用 GPUImageMovieWriter 录制普通视频。问题是,即使在初始化 The Amazing Audio Engine 之后,视频在开始时也只有几分之一秒的音频,然后音频就消失了。
初始化 TAAE 时发生了一些事情。我怀疑这与 AVAudioSession 有关,因为它是一个共享实例。任何帮助都会很棒。
objective-c - 使用 The Amazing Audio Engine 进行离线渲染
这篇文章也发布在The Amazing Audio Engine 论坛上。
大家好,我是 The Amazing Audio Engine 和 iOS 开发的新手,并且一直在尝试弄清楚如何获得曲目的 BPM。
到目前为止,我在论坛上找到了两篇关于离线渲染的文章:
- http://forum.theamazingaudioengine.com/discussion/comment/1743/#Comment_1743
- http://forum.theamazingaudioengine.com/discussion/comment/649#Comment_649
据我所知,该AEAudioControllerRenderMainOutput
功能仅在此fork 中正确实现。
我正在尝试进行离线渲染以处理轨道,然后使用此处描述的算法(JavaScript)并在此处实现。
到目前为止,我正在加载这个 fork,并且我正在使用 Swift(我目前是 Make School Summer Academy 的一员,该学院教授 Swift)。
播放曲目时,此代码适用于我(无离线渲染!)
尝试离线渲染
这是我在使用这个fork时尝试运行的代码
离线渲染不适用于我的 ATM。第二个例子不起作用,它给我带来了很多我不明白的混合错误。
一个非常常见的是channelAudioProducer
在这一行的函数内部:
它给了我EXC_BAD_ACCESS (code=EXC_I386_GPFLT)
。在其他错误中,这个错误非常常见。
对不起,我在这个领域完全是个菜鸟,但有些东西我不太明白。我应该使用nonInterleaved16BitStereoAudioDescription
ornonInterleavedFloatStereoAudioDescription
吗?这是如何实现的mData
?
我很想在这方面得到一些帮助,因为我现在有点迷路了。当你回答我时,请尽可能充分地解释它,我是这个东西的新手。
注意:如果您不了解 Swift,可以在 Objective-C 中发布代码。
ios - 如何使用神奇的音频引擎获得音频缓冲区的力量
我对 iOS 开发相当陌生,而且我是音频方面的新手。
我正在尝试获取使用 TAAE 播放的音频的响度或功率。我不确定我所做的是否有意义。
这是我的代码
我到处寻找,试图了解如何完成这项工作,但我很难知道我应该寻找什么。
基本上,我所需要的只是找到音频的力量(强度、低音等)来确定和操纵我正在构建的游戏中的某些内容。
我真的很想得到任何解释或帮助。
随意用 Objective-C 或其他语言编写代码
ios - 如何使用 The Amazing Audio Engine 保存应用了音频过滤器的文件?
我正在使用 TAAE 对音频文件应用过滤器,这似乎可行。但是现在,我该如何保存该音频文件。
swift - AVFoundation 错误域
我认为使用 The Amazing Audio Engine 库时遇到问题。
实际上,当我尝试同时使用麦克风播放曲目和录音时,在录音结束时,当我输入此方法时:
我有这个错误:
错误域=AVFoundationErrorDomain 代码=-11818“注册登记” UserInfo={NSUnderlyingError=0x15d5a4cd0 {错误域=NSOSStatusErrorDomain 代码=-16414“(null)”},AVErrorRecordingSuccessfullyFinishedKey=true,NSLocalizedRecoverySuggestion=Arrêtez toute autre action effectuée avec l'appareil d 'enregistrement puis réessayez., NSLocalizedDescription=Enregistrement arrêté}
对于我使用的视频记录,AVCaptureSession,对于音频播放和音频记录,我使用 The Amazing Audio Engine。
你知道这个问题吗?
ios - 使用 Accelerate Framework 将分贝转换为音量
我正在构建某种音频推子效果。
我正在使用 vDSP_vdbcon 将音量缓冲区转换为分贝,在 db-space 中应用一些修改,并希望使用加速框架将分贝缓冲区转换为音量。
谢谢!
swift - 快速回调函数
我正在尝试使用The Amazing Audio Engine在 OS X 上使用 Swift 录制一些音频。为此,我需要实现一个回调函数,该函数将接收音频并对其进行处理。该文档有一些关于如何使用 Objective-C 执行此操作的示例:
或者
据我所知:
现在我在receiverCallback
属性中遇到错误。我是在正确的轨道上还是我的方法完全错误?
我不知道如何在 Swift 中做同样的事情。我该怎么做?
ios - 如何使用 Swift 使用 TheAmazingAudioEngine 播放音频文件?
我需要使用TheAmazingAudioEngineframework
和Swift
. 我完全是这个框架的新手,并尝试了下面的代码,但音频没有播放。怎么了?我怎么能播放音频文件?
ios - 使用 TheAmazingAudioEngine 播放多个声音时出现问题
我正在使用TheAmazingAudioEngine框架实现一个低延迟的鼓组。我有一个带有单个按钮的场景和一个viewController
使用以下方法的场景。如果我慢慢地触摸按钮,这段代码效果很好。但是如果我在短时间内多次触摸它---每秒10次,例如---,一些触摸不播放声音,没有错误消息。音频样本很短(少于 2 秒)。
为什么会这样?我的实施有什么问题?
我选择TheAmazingAudioEngine
而不是AVAudioPlayer
在触摸和声音之间获得低延迟。