问题标签 [audiobuffer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
3718 浏览

javascript - 使用 Web Audio API 将多个 ArrayBuffer 合并/分层为一个 AudioBuffer

我需要分层循环 .wav 轨道,最终我需要能够打开和关闭并保持同步。

首先,我加载轨道并停止BufferLoader将加载的轨道arraybuffer变成AudioBuffer(因此false

当您单击屏幕上的按钮时,它会调用startStop().

我在这个家伙 github 上找到的大部分代码。在演示中,您可以听到他正在对 AudioBuffers 进行分层。

在主机上尝试过同样的方法。

不管这些argularJS东西,网络音频的东西正在发生service.js在:

如果您打开控制台并单击按钮,您可以看到activeBuffer.byteLength(ArrayBuffer 类型)正在递增,但是即使在通过该context.decodeAudioData方法解码后,它仍然只播放您单击的第一个声音,而不是合并的声音AudioBuffer

0 投票
2 回答
5604 浏览

ios - 如何在 iPhone 中使用 AudioBuffer 从麦克风本地录制音频文件?

我是音频框架的新手,有人帮我编写通过麦克风捕获正在播放的音频文件吗?

下面是通过 iphone 扬声器播放麦克风输入的代码,现在我想将音频保存在 iphone 中以备将来使用。

我从这里找到了使用麦克风录制音频的代码 http://www.stefanpopp.de/2011/capture-iphone-microphone/

-(void)prepareAudioFileToRecord{

}

在此先感谢巴拉

0 投票
0 回答
573 浏览

ios - 放大音频缓冲区 xcode ios

我有如下所示的 AudioBuffer。它可以通过扬声器播放。我想知道在玩之前放大这些缓冲区的方法。我该如何修改?

0 投票
4 回答
7849 浏览

ios - 如何从 NSdata 创建 AudioBuffer/Audio

我是流应用程序的初学者,我从 AudioBuffer 创建了 NSdata,并将 nsdata 发送到客户端(接收器)。但我不知道如何将 NSdata 转换为音频缓冲区。

我正在使用以下代码将 AudioBuffer 转换为 NSdata(这很好用)

如果这不是正确的方法,那么请帮助我....谢谢。

0 投票
1 回答
993 浏览

c# - Android.Media.AudioTrack.GetMinBufferSize 方法 - 如何在 Xamarin.Android (c#) 中使用它的语法?

我目前正在使用 csharp 在 Xamarin 工作室中为 Android 制作一个音乐应用程序。我正在制作一个简单的合成器应用程序,目前我被 csharp 的 GetMinBufferSize 方法困住了。

Xamarin.Android 文档为 GetMinBufferSize 方法提供了以下语法(这里是链接:xamarin API 音轨文档

  • 它对应于 Java 中的以下内容(链接:android 参考):

公共静态 int getMinBufferSize (int sampleRateInHz, int channelConfig, int audioFormat)

我不明白这些东西是什么以及我应该如何使用它们:[Android.Runtime.Register("getMinBufferSize", "(III)I", "")] [Android.Runtime.GeneratedEnum] [Android.Runtime.Register("getMinBufferSize", "(III)I", "")] Runtime.GeneratedEnum]

Java 中的代码更简单:

其中 _sampleRate 是 int _sampleRate = 44100;表示频率率。

因此,如果您至少告诉我 xamarin 文档中括号中的那三行是什么 - 我将不胜感激。

提前感谢您,祝您有美好的一天。

到目前为止我的代码:

0 投票
1 回答
151 浏览

visual-c++ - How to guess number of required WAVEHDR Array/Buffer in Wave audio recording

i want to write a audio recording program using win32 WAVE API and then stream it. but i want to know how i can guess the number of WAVEHDR buffer for recording audio?

the value of NUM is needed. does it selected based on special formula or it is completely chosen by developer neeed?

0 投票
1 回答
113 浏览

javascript - 多次连接 createAudioBuffer 和 Analyzer


我被卡住了。我的问题是,我通过 初始化我的 mp3 文件,createAudioBuffer并希望将每个音频文件与我的分析仪连接起来。但只有当我设置 audioSource[i].start(); 最后一首曲目将通过分析仪。如果我按下标签上的播放按钮(或外部按钮),我希望每个音频文件都能通过该分析器。
有没有办法得到这项工作?

这是我的代码:

0 投票
1 回答
127 浏览

google-chrome - Chromeium Web audi api copyToChannel 未定义

我从 node.js 扬声器模块中获取 AudioBuffers,并希望它们通过 chromeium(node webkit)中的 web audi api 播放。所以我的问题是我必须获得一个通道(作为缓冲区)并通过 UDP 将其发送到我的客户端。然后这个客户端想要播放它,但是 chromeium 还没有实现方法“myArrayBuffer.copyFromChannel(anotherArray,1,0);”。

这种方法可以完美地解决我的问题,但它未定义。是否有任何解决方法。

提前致谢

0 投票
1 回答
153 浏览

ios - 如何将 AudioChannel 设置为左​​耳机和右耳机?

一旦我们收到来自麦克风的任何输入,我就会使用播放音频。我正在使用OSStatus录制和播放音频。由于录音和播放工作正常。

我必须根据用户选择激活左侧耳机、右侧耳机或中心。在我研究 AudioBuffer时,我们必须为左、右和中耳机设置mNumberChannels 。这是我播放音频的代码。

但是,如果我更改mNumberChannels ,我将无法启用左、右或居中。谁能帮忙指出我的错误?

0 投票
0 回答
62 浏览

iphone - How to set Left, Center and Right headphone as Default iPhone?