问题标签 [remoteio]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - Can we write the audio buffer in to a file that we get as part of Remote IO callbacks?
Can we write the audio buffer in to a file that we get as part of Remote IO callbacks?
Is recording and storing the recordings to a file restricted to AVAudioRecorder?
NEED A NEW TAG:: remote-io
ios - 设置调用 RemoteIO 音频单元渲染回调的速率
我已经为输入和输出设置了 RemoteIO 音频单元渲染回调。我希望减少调用渲染回调的频率。如何指定调用它们的速率?
ios - ios中真正简单的波形合成器/表
我想做一个非常简单的合成器。
简而言之,我想播放一个 wav 文件,并让它在某些点循环,直到触摸被释放。
我正在寻找一些示例代码,(不需要是免费的)。
抱歉,这是一个基本问题,我一直在谷歌上搜索,尽管似乎没有关于这个确切主题的内容,除非我错过了一些重要的术语。
另外,我所描述的是波表合成器还是音板?
objective-c - iphone 的音频单元代码错误 -remoteIO
我有这段代码,为了读取缓冲区样本,但我得到一个奇怪的 mach-o 链接器错误,无法加载音频单元的框架,所以我在阅读时放置了 audioTollBox 和 coreAudio。我的代码是:
和阅读方法:
我得到的是这个错误和警告:
这里有什么问题,?谢谢。
iphone - 每毫秒使用 performSelectorOnMainThread 的问题
我想通过图形在 UIView 上显示实时声音的幅度。
我将声音采样率设置为 1000 秒。
而且,为了更新图表,我确实喜欢这样做。这是每毫秒调用一次。
updateGraph 内部是这样的。
但它有角度地绘制图形。
http://achievstar.tistory.com/234 (我是这个网站的新手,所以我无法上传图片)
(我猜)这是因为“waitUntilDone:NO”。
iphone 4S 和 iPad2 都赶不上 1000 的速度。
我还为“waitUntilDone”尝试了“YES”。画得对,
http://achievstar.tistory.com/234 (见下图)
而且,设备跟不上1000的速度,
所以这样,绘图速度很慢。
有没有办法更好地修复图表?
我真的在这里存货,我什至找不到好的解决方案了。
objective-c - remoteIO 输入方波频率低
我向audioJack 输入一个频率为2-3 khZ 的方波约5 秒。方波是 1 和 0 - 没有负值。
我得到一些介于 -32000 到 32000 之间的周期性信号(但我的信号是正的!?)
我检查了我的值有多少次越过零 - 我在 5 秒内得到 500,这意味着每秒 100。
我在这里想念什么?3khz是每秒3000。
我的采样代码在我之前的帖子 中:音频单元代码中的错误 -remoteIO for iphone
这里有关于频域的任何解释吗?我缺少样品吗?我该如何改进它?我应该这样做:
多谢!
iphone - 有时会在没有消息的情况下崩溃 EXC_BAD_ACCESS(设置 NSZombieEnabled)
我正在处理 RemoteIO 以获取麦克风输入并对其进行少量修改。
有时它会崩溃EXC_BAD_ACCESS
并且没有更多消息。
导致崩溃的行是这些;
解释代码,
- “权力”是
NSMutableArray
。 [powers count]
总是大于变量“i”
挣扎了一会儿,我找到了一个很好的方法来解决它。
一个环境变量。
所以我设置了NSZombieEnabled
,也NSDebugEnabled
让我可以看到崩溃的原因。
但即使我设置了变量,Xcode 也没有显示任何消息。(但当其他线路发生崩溃时,它会正确显示消息。)
还有一个奇怪的事情是它不会在运行开始后立即崩溃;它平均在一分钟内崩溃。(但时代真的不同。)
这是一个小小的猜测。当我将速率降低到比以前的一半时,它更加稳定。
那么,是否有问题NSMutableArray
,因为NSMutableArray
方法无法赶上速度?
还是您看到其他可能的原因?
==================================================== ========================================
还有一些代码。我是这样分配权力的。。
我释放权力阵列的地方是..
没有别的地方。
更详细的代码是这样的。
此 drawRect: 方法每毫秒从主线程(按计时器)调用。
-- 在这个方法中更新(更具体地说是添加)权力
而且这个方法每毫秒调用一次。这是在后台线程中调用。
所以没有@autoreleasepool XCode 显示泄漏警报消息
出于这个原因,我用 @autoreleasepool{..} 阻止了方法(setPower)
ios - 除了高内存使用之外,还有哪些条件会导致 iOS 应用程序被操作系统关闭?
我的 iPad 应用程序存在令人沮丧的稳定性问题。在 iPad 2 上,应用程序运行良好,没有崩溃,但在 iPad 1 上,它会随机关闭,就像内存使用率过高时关闭一样(应用程序在设备上停止运行,调试器更改为“暂停”状态,控制台窗口显示“(gdb)”)。但是,内存分配低于 5MB,所以我不知道应该做些什么来防止操作系统关闭我。
我的应用程序使用 OpenGLES 和 RemoteIO 音频单元实时运行。所以它一直在处理,但在繁重的用例中不会发生崩溃。
此外,当不在调试器中运行时,应用程序更加稳定。
除了高内存使用之外,iOS 是否会出于任何原因关闭应用程序?我将如何调试这些原因以便我可以修复它们?
谢谢!
编辑
我发现崩溃似乎与我正在绘制的顶点数有关GL_LINE_STRIP
。我在屏幕上有多个对象,每个对象都由一个具有 2500 个顶点的线带组成。一旦我有大约 8 个对象(大约 20,000 个总顶点),稳定性就会变得不稳定。
另外,我正在 alpha 混合线条。
有什么方法可以解决这个问题而不只是放弃我的分辨率?
xcode - Core Audio - 基于远程 IO 的低延迟节拍器
我正在尝试使用 Core Audio 构建低延迟节拍器。
我想要实现的是使用远程 IO,它应该为我产生的每个音频包提供一个时间戳。然后我想用它来记住我何时开始播放并从开始时间戳中减去当前时间戳以获得当前位置。然后我想用它来根据需要为节拍器生成音频。
经过一番研究,我发现这将是创建低延迟节拍器的最佳方式。然而,尝试实现它并深入研究这个框架是相当艰巨的。如果有人知道我如何将它们组合在一起,或者甚至可以将我指向可以收集使其工作所需的信息的来源,我将不胜感激!
谢谢你。
objective-c - 在回调期间可以做任何事情吗?一个基本的目标c问题
很抱歉这里有很多关于这个问题的帖子,但我在这里取得了进展。
我有一个回调函数,它位于 C 中,并在到达新缓冲区时被调用。
我在这里被告知不要在那个回调中做任何事情,不要做 malloc 或任何事情。
现在我想将我的新缓冲区发送到另一个类(这将创建一个圆形缓冲区并保存许多缓冲区)。
但是,我没有得到的基本信息是,如果我从回调中调用另一个函数 - 它与在其中执行它相同 - 因为在该函数中我执行 DSP 并且它需要时间,所以它与执行它相同在那个回调中-因为它是串行的。
froof:我正在将数据发送到另一个类中的另一个函数,它没问题,但如果我尝试NSLOG
在那里,我又遇到了这个内存泄漏。
这是我从回调中调用的另一个类:
只有在 时comment the log
,它才能在没有内存泄漏的情况下工作。这意味着回调正在等待!
我将如何在其他地方并行处理这些数据?我现在为此花了一个星期。
谢谢。