问题标签 [webkitaudiocontext]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - webkitAudioContext 播放base64 WAV
我有一个 wav 文件,其中包含:ffmpeg -i my.wav
给出输出:
这在 JavaScript 中存储为 base64 字符串,作为下面列出的 base64 变量加载到内存中。
这是代码:
输出:
如果您查看此演示文稿,它有一个 WAV 标题: http ://html5-demos.appspot.com/static/html5-whats-new/template/index.html#29
如果您将第一个值转换为十六进制,这与我的相同,但在我的情况下,回调永远不会为 decodeAudioData 触发。有任何想法吗?
javascript - Live Web Audio Input 是否可以在 Ubuntu 上的 Google Chrome 中使用?
根据这篇文章,以下代码应该可以在 OSX 和 Windows 上运行,但没有提到 Linux:
http://updates.html5rocks.com/2012/09/Live-Web-Audio-Input-Enabled
我下载了 Chrome Dev 版本:版本 25.0.1323.1 dev 并且它不工作。
我启用了以下标志:
audio-recording - 从 AudioContext 录制声音(Web Audio API)
有没有办法记录发送到的音频数据webkitAudioContext.destination
?
浏览器正在播放节点发送的数据,因此应该有某种方法将这些数据存储到 (.wav) 文件中。
javascript - HTML5 音频 API - “音频资源不可用于 AudioContext 构造”
我正在尝试使用 webkitAudioContext 为 HTML5 音频创建图形均衡器类型的可视化 - Chrome 仅在这一点上。
当我尝试更改音频源(即播放不同的歌曲)时,我发现异常和不可预测的行为。我在某处读到我应该等到触发音频上的“canplay”事件后再将其连接到上下文/分析器:
前三四次我更改了源,它可以工作,然后最终以“Uncaught SyntaxError:AudioContext construction 的音频资源不可用”而失败
完整的演示在这里http://jsfiddle.net/eAgQN/
web-audio-api - 从 HTML5 音频麦克风流中获取音频电平
在上一个堆栈溢出问题中,我发现了以下代码:
它从用户的麦克风中获取音频并通过扬声器播放。我想要的是输入的电平(幅度)(例如,如果发生剪辑,我可以显示红色警告,或者告诉用户他们需要说出来)。在上面的代码中,我如何真正掌握原始数据?
例如,如何将实际数字记录到控制台?我猜它都存储在liveSoure中?
我不需要任何巧妙的画布动画等,只需要一个数字就可以告诉我输入的声音有多大。这相对简单吗?如果是这样,它是如何完成的?
谢谢
html5-audio - HTML5 音频缓冲区卡住
我正在使用 HTML5 webkitAudioContext 使用以下代码获取用户麦克风的实时级别:
如果您将其复制并粘贴到您的控制台并在麦克风附近单击手指(假设您已启用麦克风输入),您会看到它工作了几秒钟,然后突然停止。它不报告任何错误。谁能解释为什么会这样?谢谢
有关级别正常工作的示例,请参见http://labs.dinahmoe.com/dynamicmusicengine/ 。
html - 我想实现从 MP3 音频数据到 Web 的流式传输
My Client Web(HTML5实现)从Web服务器(Node.js实现)获取MP3音频数据,音频数据有16位PCM编码数据和通用二进制数据两种。
即使我遵循了一些示例和解释,我也无法解决我遇到的问题。
现在我想知道如何播放这个你能指导我为什么我在方法'context.decodeAudioData'中得到一个错误吗?
提前谢谢你的帮助。祝你好运!~
javascript - chrome音频分析仪在音频开关上中断
我正在使用 webgl 创建一个音频可视化器,并且一直在将 soundcloud 轨道集成到其中。我不想切换轨道,但我可以让我的可视化器工作并且音频中断,或者我可以让音频工作并且可视化器中断。
我能够使它工作的两种方法是
音频工作
- 删除音频元素
- 将新的音频元素附加到正文
- 触发播放
展示台工作
- 停止音频
- 改变来源
- 触发播放
当我让可视化器工作时,音频完全混乱了。缓冲区只是听起来不对,而且音频中有伪影(噪音、哔哔声和嗡嗡声)。
当我有音频工作时,当我打电话时analyser.getByteFrequencyData
,我得到一个 0 的数组。我想这是因为分析仪没有正确连接。
音频工作的代码看起来像
(我认为我不需要pause
电话。是吗?)
当我希望可视化器工作时,我使用此代码
startWebAudio
函数看起来像这样。
我怀疑分析仪没有正确连接,但我不知道要看什么才能弄清楚。我查看了frequencyByteData
输出,这似乎表明某些东西没有正确连接。analyser
变量是全局的。如果您想更多地参考代码,这里是它在 github 上的位置
google-chrome - Safari浏览器中未定义的webkitAudioContext
我在控制台(chrome)中尝试webkitAudioContext
并定义了它(带有本机代码的函数)。
在 safari (5.1.6) 中,它返回“消息:” Can't find variable: AudioContext
“”。
我可以webkitAudioContext
在 Safari 中使用吗?
谢谢!
编辑:
audio-streaming - 在 HTML5-Audio-Tag 中从 Java-Application 播放音频流
我已经花了将近一个星期的时间尝试在浏览器中播放从我的 java 应用程序发送的音频流。播放单个文件不是问题。我想要实现的是通过将数组通过 ServerPush/Comet/Atmosphere 推送到客户端来从 Java 应用程序播放恒定流(以字节数组块的形式发送)。
我尝试过使用 Chrome 27.0.1453.94 m、Firefox 21.0 和 IE 10。
我一直在使用Web Audio API W3C 草案定义,还有一些关于 html5rocks 的文章(介绍、Web Audio API 和 Audio-Tag)以及这个。
为了接收二进制数据,我发现了这个。
此外,到目前为止,这个ogg 应该可以在 Chrome 和 Firefox 中播放。
使用 Flash 并不是一个真正的选择,因为那时我需要在服务器上进行完全不同的设置(使用 RTP-Streams 等),而且对移动设备的支持也会很差。
我将不胜感激有关我做错了什么或播放音频的方式的任何提示。下面我发布了我的设置。
我的设置:
我有一个“流服务”类,它读取音频文件,使用JAVE将它们转码为 ogg(如果需要),然后将字节数组提交给客户端。我使用 Atmosphere 将新的音频块推送到客户端(HTTP-ResponseType 设置为“arraybuffer”)。推送到客户端的每个字节数组大小为 1400 字节,并且是 base64 和 json 编码的服务器端。
在 Javascript 中,我有大约。以下代码(某些部分与问题无关):