问题标签 [audioqueue]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 使用 AudioQueue 播放原始未压缩的声音,没有声音
我使用三个缓冲区和一个队列,通过网络播放 ADPCM 数据。从我的应用程序中解码数据,并通过从 Audacity 播放正确验证解码数据(未压缩的 pcm 数据)。但是,使用 AudioQueue 从我的应用程序播放时,我听不到任何声音。所有 AudioQueue API 返回值都是 noErr (0)。我一直在尝试通过分配三个缓冲区来跟踪AudioQueue 不会输出任何声音。它对我不起作用!有人知道如何显示更多 AudioQueue 日志,以便我可以捕捉到故障点,或者我的代码有什么问题吗?谢谢!
objective-c - AVCaptureSession 和 AudioQueue
我是 Objective-C 和 iOS 的新手,我需要你的帮助。我想获取我的麦克风音频输入并将其直接重定向到扬声器输出中(不通过文件)。
我在这里:使用 AVCaptureSession 获取我的麦克风输入和 AudioQueue 尝试播放输出缓冲区。但是我在互联网上找不到任何东西,似乎没有人需要这样做。我是不是误会了什么?我只想知道如何将我的 CMsampleBufferRef 转换为我的 AudioQueue 可以用来播放的良好 pcmbuffer(以及在我的 AudioQueue 中修改什么以将其与我的 AVCaptureSession 链接)。这是好方法吗?我发现有很多东西可以将输出缓冲区写入文件,但是对于即时执行某些操作,什么都没有,或者只有我还不能使用的简短解释。
请您用示例代码给我非常详细的解释,因为我是新手。现在我可以让我的 AVCaptureSession 工作(CMSampleBufferRef 中有一些东西),我可以用我的 AudioQueue 播放一个文件,但是当我想链接这两个文件时,我不知道该怎么做。
提前致谢
ios - (编辑:iOS Simulator 5.x 错误)在 iOS 中使用 AudioQueue 进行声音播放时出现 EXC_BAD_ACCESS
[编辑:这是一个确认的 iOS 模拟器错误。出现在 5.0 中并保留在 5.1 中。请参阅下面我自己的答案中的链接]。
我伙计们。这是我的第一个问题。我真的迷路了...
我在使用 AudioQueue 在 iOS 中播放声音时遇到了一些麻烦。当我使用 AudioQueueNewOutput 创建一个 AudioQueue 时,我得到一个 EXC_BAD_ACCESS。它似乎发生在某些音频线程中(Xcode 显示线程 4)。
AudioQueue 是这样创建的:
(desc 包含 iOS 规范播放格式)。
这是编辑器显示的:
Xcode 4.3.1
iOS 模拟器 5.1
Mac OS X 狮子 10.7.3
我真的很感谢你的帮助。有什么想法吗?
iphone - 为什么我在 AppDelegate 中的 AVPlayer 类引用返回 nil?
我正在尝试处理音频流中断,当用户接到电话时音频暂停,然后它应该在通话结束后恢复。
但是我对我的MyAVPlayer
类的引用返回 nil,在这些代码行中[myAVPlayer pauseAACStreaming:self];
,[myAVPlayer playACCStreaming:self];
如下所示。
为什么会这样nil
,因为我已经播放了音频?有更好的方法吗?
我在我的 AppDelegate.ha 中引用了一个自定义类 MyAVPlayer,如下所示:
然后,在 AppDelegate.m 我有:
audioqueue - AudioQueue 从某个位置播放文件。?
我想通过 AudioQueue 服务实现 AudioSeeking 功能。我有一个 20 秒的 .wav 文件。播放一次后,对于接下来的所有循环,我希望它从 5 秒开始播放。任何可行的解决方案?
ios - 这个队列属性(iOS Audio Queues)是什么意思?
我想写一个播放器来播放音乐。我看到如下代码:
我不知道为什么要设置 AudioQueueProperty,kAudioQueueProperty_MagicCookie 是什么意思?我无法从文档中找到帮助。谁能给出解决问题的方向。
ios - 同时播放和录制音频
我需要同时播放和录音。问题是播放和录制的声音应该不同。播放的声音_1通过耳机插孔不断发送到连接的设备,设备分析此声音_1并通过耳机插孔发送回另一个声音_2。我收到了这个 sound_2,但是当我尝试录制它时,我得到了 sound_1 和 sound_2 的混合。有什么方法可以单独播放/录制,或者我需要某种过滤器来接收声音_2?我尝试用 AVAudioPlayer 播放声音并用 AudioQueue 录制,会话是 PlayAndRecord。
发现了一些类似的主题:在 iOS 中使用耳机插孔引脚同时播放和录制音频?
但也没有建设性的答案。
iphone - AudioQueue 样本值错误
我需要读取音频样本值。我正在使用该 audioQueue 回调(来自 Apple SpeakHere 示例):
返回值,但是当我将它们与大胆的图表进行比较时,它们似乎是错误的:
Audacity 值从 1 (65535) 到 -1 (0)。所以逻辑上第一个样本值应该是 32767,第二个应该是 ~50 000 ...
但我收到其他结果:
问题 - 为什么从 mAudioData 返回的样本值是错误的?
iphone - 如何防止iphone麦克风录制播放的声音?
我目前正在开发一个需要同时录制和播放的应用程序,但只能在给定频率下发出给定的哔哔声。通过使用 avaudioplayer 播放声音和 audioqueue 以所需的频率发出,所有这些都可以正常工作。目的是从其他设备获取信号并进行处理。
不幸的是,每次我播放我的声音时,我都会触发处理,因为应用程序会“听到自己”。我想知道是否有一种方法可以在有或没有严重的信号处理/软件技巧等的情况下以某种方式取消它。
我现在的解决方案是在 avaudioplayer 播放声音时使用标志使应用程序失聪,然后它甚至委托完成甚至更改标志。嗯..这不是很准确:(
任何帮助,将不胜感激!
iphone - AudioQueue 输出回调仅触发 3 次(nBuffers 次)
当我使用 启动音频输出过程时AudioQueueStart(out.queue, nil)
,输出回调仅触发 3 次(这是分配的缓冲区数)。
这是我的输出回调代码:
我认为这是由于缺少缓冲区,但我的输出是:
所以第一个缓冲区在 AudioQueue 开始填充第三个缓冲区之前入队,它不应该用完缓冲区。
这里会发生什么?