问题标签 [audiocontext]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - 使用摩尔斯电码的网络音频 api 创建的带有声音的屏幕的 Flash 部分(音频上下文)
我创建了代码来使用网络音频 api 生成莫尔斯电码声音。摩尔斯电码声音工作完美。我想用那个声音来闪烁屏幕的一部分。只有两个声音点(。)和破折号(-)。我想通过闪烁屏幕的一部分来显示消息。 我尝试将 div 的背景颜色设置为黑色,然后隐藏/显示该 div 以提供闪光效果。但它没有按预期工作。请帮助我....提前谢谢...我试过这个:
javascript - AudioContext .ended 没有正确触发
我有一个简单的例程,它创建一个音频上下文节点并用缓冲区加载它。onended 事件似乎在一开始就触发了。我为持续时间设置了一个计时器,并且 onended 事件在音频停止播放之前触发了大约该时间。任何人都知道如何获得一个真正的onended事件。我尝试使用目标和源,结果相同
播放和结束事件之间的时间戳仅相差 1 毫秒。filePlayed 启动超时事件以显示开始和结束的时间。
javascript - iOS 11 webkitAudioContext 崩溃了?
在 iOS11 safari 浏览器(iOS10 及以下版本有效)上,如果我离开并返回,有时音频文件无法播放。如果我不断地反复敲击,它最终会播放 - 但它会分批所有播放调用并尝试一次播放。
我创建了一个非常简单的测试页面。有谁知道为什么?
javascript - 当检测到静音(JS)时,如何提取前面的音频(来自麦克风)作为缓冲区?
我正在使用带有 NodeJS 后端的 Google Cloud API for Speech-to-text。该应用程序需要能够侦听语音命令,并将它们作为缓冲区传输到后端。为此,我需要在检测到静音时发送前面音频的缓冲区。
任何帮助,将不胜感激。包括下面的js代码
safari - Safari 中的 OfflineAudioContext 和 FFT
我正在使用 OfflineAudioContext 在后台进行波形分析。
在 Chrome、Firefox 和 Opera 中一切正常,但在 Safari 中我得到了一个非常狡猾的行为。波形应该由许多样本(329)组成,但在 Safari 中,样本只有 ~38。
请参阅Codepen。
javascript - Write a wav file in Node.js from an AudioBuffer
I am new in Node.js programming and I am trying to convert a m4a file to wav file.
I used audiobuffer-to-wav, and web-audio-api. This is my code:
I want to know how to save the wav variable into a file in Node.js
reactjs - React 和 HowlerJS:Howler.ctx 为空
我试图在全局中公开 AudioContext apiHowler
并将其分配给一个变量,但是我无法弄清楚如何Howler.ctx
不为空。
javascript - 通过 socket.io (node.js) 发送音频上下文的缓冲区
我正在尝试通过 socket.io 发送音频文件(或块)。
我试过了:
我无法解码数据:
我不会描述我所有的尝试,其中有很多。
更新
工作变体
也许有人可以提出更正确的变体?
javascript - 在javascript中对音频进行下采样
我想在 javascript 中对音频缓冲区进行下采样。我正在使用 OfflineAudioContext,但输出音频质量明显低于原始音频(44100Hz)。在javascript中是否有比这更高质量的音频重采样的解决方案: