问题标签 [scriptprocessor]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iis - IIS web.config,除了 %s 之外还有其他 % 符号吗?
关于 IIS 的 web.config 的处理程序部分中的 scriptProcessor,除了 %s 之外是否还有任何 % 符号(这似乎代表请求的文件名)?例如,%aa 是否可以识别宏/符号?如果除了 %s 之外还有其他人,他们是在哪里描述的?
javascript - ScriptProcessor的onaudioprocess事件速度能否受setInterval或requestAnimationFrame的影响
我正在使用 Web Audio API ScriptProcessor
,它是onaudioprocess
重复回调的事件,例如节拍器。
我尝试在同一个应用程序中使用requestAnimationFrame
和节点进行音频可视化。analyser
尝试绘制到using or时,似乎哪个onaudioprocess
事件发生的速度减慢了一半。canvas
requestAnimationFrame
setInterval
问题是,其他东西可以中断onaudioprocess
速度是否正常?还是我做错了什么?
或者它受到canvas
绘图的影响?因为我尝试使用 RAF 并设置 Interval 将内容记录到控制台,但它没有任何影响。
javascript - Web Audio API 多脚本处理器节点
对于这个问题,我一直在寻找近两天的解决方案。我有一个捕获麦克风输入的网络音频 api 应用程序。在一个脚本处理器中,我使用汉宁窗口对信号进行窗口化,当音频链看起来像这样时,它可以正常工作:
源 -> windowScriptProcessorNode -> audioContext.destination
然后我想像这样向链中添加另一个脚本处理器:
源 -> windowScriptProcessorNode -> otherScriptProcessorNode -> audioContext.destination
但是在 otherScriptProcessorNode 的 inputBuffer 处,只有零而不是 windowScriptProcessorNode 的信号。这是一些代码:
web-audio-api - 如何从 Web Audio Api ScriptProcessor 调制参数?
我正在使用 Web Audio Api 开发浏览器合成器。我想通过 ScriptProcessorNode 开发自定义振荡器模型,而不是使用“内置”振荡器节点。我能够用其他节点调制“内置”节点的 AudioParams。
如何将 ProcessorNode 的内部参数连接到其他 AudioNode?
nodes - WebAudio scriptProcessorNodes *需要*连接输出吗?
这是一个简单 jsFiddle 的链接,它使用网络音频测量实时输入的响度(它将值作为百分比输出到控制台)。
我计划只有一个输入而没有输出,因为无需延迟我的音频信号等待我的自定义节点完成音量计算。
但是,很明显 scriptProcessor仅在连接到context.destination
. 难道我做错了什么?或者这是一个错误?或者这是预期的行为?
javascript - 在 JavaScript 中为 ScriptProcessorNode 分配变量
我对我们如何将变量“clipping”、“lastClip”、“volume”等分配给 ScriptProcessor 感到困惑。我查看了 ScriptProcessor 的文档,似乎还没有定义这些。
谢谢。
garbage-collection - 为什么 onaudioprocess EventHandler 必须是全局的?
考虑以下代码:
onaudioprocess
EventHandler只被process
调用了几次。另一方面,如果 EventHandler 是全局的,它会继续按预期调用。
为什么onaudioprocess
EventHandler 必须是全局的?
似乎这是垃圾收集器的问题,它似乎在几次调用后消除了 EventHandler。Google Code 和 Mozilla Support 上的各种帖子都暗示了这一点。
有谁知道这个问题的当前状态,以及何时(如果有的话)会得到解决?
javascript - 为什么必须将 ScriptProcessorNode 连接到目标?
考虑以下代码:
process
不调用ScriptProcessorNode EventHandler 。考虑processor.connect(audio.destination);
在最后添加,如下代码所示:
EventHandlerprocess
现在按预期调用。
Web Audio API 规范指出
只有当 ScriptProcessorNode 至少连接了一个输入或一个输出时,才会调度 audioprocess 事件。
为什么必须将 ScriptProcessorNode 连接到音频目的地才能调用其 EventHandler?
javascript - 如何停止/暂停 WebAudio ScriptProcessor 节点?
我可以在我的 HTML5 应用程序上仅使用 createJavaScriptNode(...) 生成声音。我需要即时生成白噪声。我遇到的问题是我无法停止/暂停生成,例如将 null 设置为处理器或上下文。
我看过这篇文章:如何停止 Web 音频脚本处理器并清除缓冲区?我想知道是否有比将增益节点设置为零更好的解决方案。
如果我不需要它,我是否必须担心让处理器继续运行?我不想在我的代码中有“幽灵”。如果我可以将不再使用的对象清空,那就太好了。
谢谢你。
web-audio-api - ScriptProcessorNode 的独特立体声输入
我希望在需要连续访问两个或多个音频流的 Web 音频 API 中实现音频效果。
我可以定义一个具有 2 个输入通道和 2 个输出通道的脚本处理器:
然后我可以将一些正弦波连接到这个处理器:
有没有办法将它们连接到音频处理器的特定输入通道?
最终,当我编写一个 onaudioprocess 函数并单独收听每个输入通道时,每个输入通道都包含连接到处理器的所有声音。我无法在 onaudioprocess 函数中单独访问每个正弦波。这个对吗?或者有没有办法将声音连接到脚本处理器的单个输入通道?