问题标签 [audiobuffer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何通过 NSData 播放音频缓冲?
我想通过 NSData 播放音频缓冲:
在这段代码中:
ios - 实现录制音频并在另一个 iDevices 中播放
我想在另一部 iPhone 上录制音频和流媒体。这种格式对于录制和流式传输是否正确?
要求开始录音:
如果可以的话
如何在这段代码中取出音频缓冲区数据以发送到服务器?以及如何在其他设备上播放其数据?
如果有人有这个项目的完整代码,请将我链接到源代码。谢谢
javascript - 如何将 ArrayBuffer 转换为 AudioBuffer?
我正在流式传输 arrayBuffer 以转换为 audioBuffer 以便能够收听它。
我正在通过 websocket 事件接收流
这buffer
是一个arrayBuffer,我需要它是一个audioBuffer
以便能够在我的应用程序上收听它。
我怎样才能做到这一点?
javascript - 在现有的 HTML5 音频标签中播放 AudioBuffer
我创建了一个网站,其中包含一个音频标签以及一个用于文件上传的工作放置区。
拖动的音频文件然后被转换为一个ArrayBuffer
并最终转换为AudioBuffer
.
然后AudioBuffer
可以像这样在函数中播放:
以上所有工作都很好,但这不是我所追求的。
我希望AudioBuffer
在我的 HTML 中的音频播放器中播放和控制。如何才能做到这一点?
audiounit - 在 AVAudioEngine AVAudioPlayerNode 输出似乎不是 AVAudioUnitNode 输入
我将一个 AVAudioPlayerNode 附加到一个 AVAudioEngine,定义了一个链接到 playerNode 的文件。我附加了一个链接到我自己的 AUAudioUnit 的 AVAudioUnitNode。第一次。我将 playerNode 直接连接到 mainMixerNode,当我开始播放引擎时,我可以听到链接到播放器的音频文件。第二次。我将同一个 playerNode 与 audioUnitNode 连接,将 audioUnitNode 与 mainMixerNode 连接起来。audioUnit 处理方法只是读取输入缓冲区的数据并将它们写入输出缓冲区的数据。但我什么也听不见。音频单元的输入缓冲区的输入样本始终为 0.0。我想将 playerNode 的输出 AudioBuffer 与作为 audioUnit'kernel 处理方法的参数给出的调试进行比较。但是我可以' t 想办法监控 playerNode 的输出缓冲区。有人可以告诉我如何访问 playerNode 的输出数据吗?有谁看到我处理的方式或我必须关心的问题可能有什么问题?
swift - 如何在 Swift 4 中使用 sizeof() 方法
我正在尝试实现从苹果 WWDC 视频中获得的这段代码。但是视频是 2016 年的,我认为语法已经改变。如何调用 sizeof(Float)?这会产生错误。
html - iOS 12 上的 webkitaudiocontext 无法正常工作?
我正在开发一个角度应用程序。这个应用程序需要播放保存在 IndexedDB 中的音频。所以我保存了arrayBuffer,当我启动PWA APP时,我立即将arrayBuffer放入AudioBuffer中。然后当用户点击一个按钮时,创建一个 AudioContext || WebKitAudioCONtext(iOS 专用)并使用 audioBuffer 等 start() 设置源。
没有回调函数或承诺。我已阅读并理解 iOS 的局限性。但是什么都没有,iOS上没有声音。它适用于 Mac 上的 Safari、Chrome 上、Android 上,但不适用于 iPhone。
我试过很多音频库。
例如,我发现使用 pizzitaco.js ( https://alemangui.github.io/pizzicato/ ) 网站示例仅在您允许访问麦克风的情况下才能在 iPhone 上运行。如果刷新页面拒绝麦克风,没有声音...
我真的对苹果感到沮丧!
请帮我
error-handling - InvalidStateError:尝试使用不可用或不再可用的对象?
我有一个应用程序,它正在创建音频上下文,然后解码多个音频文件以在页面加载时获取音频缓冲区(在 react 中的组件安装上),一切都按预期进行,处理错误等等。
但有一个我不知道它的来源:
InvalidStateError:尝试使用不可用或不再可用的对象
经过一些研究,我发现音频上下文从暂停状态开始,这就是导致问题的原因。
这会影响应用程序吗?
javascript - 在 JavaScript 中排列 AudioBuffers
我想编写一个“安排”多个音频缓冲区的程序。与 DAW 类似,我想以自定义时间戳将音轨“分层”。这甚至可能吗?如果可以,我将如何实施?
对于这个极其笼统的问题,我提前道歉,但我找不到关于这个主题的任何好的资源。谢谢您的帮助!
javascript - Javascript中AudioBuffer与ArrayBuffer和NodeJs Buffer的区别
Javascript中不同类型的缓冲区有什么区别。它们几乎一样吗?它们之间可以转换吗?请解释..