问题标签 [audio-capture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 使用 Win32 捕获单个应用程序的音频
我将如何使用 Win32/C++/C# 捕获单个应用程序的音频输出,同时避免挂钩IAudioRenderClient
?
我只能找到解决方案来捕获系统的整个音频输出(或者更确切地说,当前活动的音频输出端口/捕获设备),通过 DirectShow 或其他各种 Win32 API 函数(WASAPI 等),这些函数很少帮助(因为我只需要一个应用程序的音频输出)。唯一可行的解决方案似乎是挂钩应用程序 IAudioRenderClient,然后IAudioRenderClient::GetBuffers()
根据this调用。
我试图避免这种情况的原因是,我打算捕获的大多数应用程序都受到各种反作弊系统的保护,能够检测到代码注入但无法将其与实际作弊区分开来。
任何指向 API/API 函数等的指针或任何消除我对错误检测的担忧的东西都将受到高度赞赏。
runtimeexception - java.lang.RuntimeException: setAudioSource failed Google Guide Code is throwing error
这是我的代码,实际上是 Google Developer Android Guide 的代码。但是这段代码抛出错误“java.lang.RuntimeException: setAudioSource failed.”。我尝试了所有解决方案,但仍然出错。
}
这是我的 Android 清单
请帮忙。我正在尝试解决这个问题三天。
c# - 录制/捕获当前播放的音频
我想在 UWP 或 Windows Phone 8.1 中捕获/记录当前播放的音频,同样的事情是由其应用程序中的“MEE dj”UWP 应用程序完成的,该应用程序能够捕获应用程序中当前正在播放的音频。请知道的人分享您的答案。
kinect - Kinect V2 中的静音检测
我正在使用 winmm.dll 使用以下方法从 kinect 录制音频:
目前,我正在使用停止按钮单击停止录制,但我想在检测静音时停止录制。因为我想删除“停止录制”按钮并在用户 10 秒内不说话时停止录制。
android - 如何在 Android Things 上录制语音
我正在 RPi3 上开发 Android Things SDK 的 Preview 2。尝试了录音机和媒体录音机,仍然无法捕获音频。我正在尝试将我的语音转换为文本。不支持常规语音识别。我将 USB MIC 直接连接到 RPi3 以及通过 USB 声卡连接到 RPi3 的耳机 MIC。
媒体记录器代码:
清单权限:
错误:
python - 如何在 Linux 上使用音频流在 python 中读取视频文件?
我正在寻找一种方法,如何使用 python 从视频文件中提取视频帧和相应的音频片段。我很了解opencv。但它只允许提取视频帧。没有提供音频。我需要两者 - 彼此完全对应的视频帧和音频片段。
将非常感谢任何提示:)
websocket - 如何在 html WebAudio Api 中播放由 ROS audio_capture 生成的流式 mp3 消息(uint8 字节)
我正在尝试使用 WebAudio api 在 html 中播放由 ROS audio_capture 生成的流式 mp3 消息(uint8 字节)。
消息由 ROS audio_capture 生成,它将 mp3 发布为 uint8 字节。我正在抓取每条消息并尝试使用网络音频 api 在网络浏览器中播放它。
以下是示例 mp3 消息:
在下面提到的 base64 解码之前从音频源接收的原始数据,如果它不是有效的 mp3 格式,请告诉我。
我最初将它保存在 javascript 数组中,然后将其转换为 ArrayBuffer,然后将 ArrayBuffer 传递给 decodeAudioData(),在那里我遇到了错误
下面是代码:
提前感谢您的帮助。
android - 如何组织音频分析器应用程序 - 活动、声音分析?
我有一个从 processing.org 导出到 Android 的音频分析器应用程序。
它可以工作,但没有正确组织以扩展其功能。因此,我想开始编写适当的 Android 应用程序,其中包含活动和从头开始所需的一切,并在需要时包含现有代码。
但我有一个问题,如何以正确的 Android 方式组织这样的应用程序。应用程序快速描述: - 应用程序以帧为单位从麦克风捕获声音并计算帧的幅度谱 - 应用程序支持 3 个可能的图表(时域、频谱和频谱图) - 应用程序有 4 个屏幕 - 第一个屏幕显示所有 3 个较小的图表,然后用户可以触摸每个图形以进入更大屏幕的单独屏幕
我知道这些屏幕可能是 Android 下的单独活动(其中 4 个),但我不确定如何使用基本上在后台活动并提供数据以显示给所有活动的音频捕获和分析代码?
如果你能给我一个建议或指向一些类似的例子,我可以从中学习。
在此先感谢,问候,罗布。
c++ - 如何减少录音程序中CPU的消耗(c++)
在互联网的帮助下,我编写了一个程序,它在运行时一直从麦克风捕获音频。一切都很好,但我需要减少 CPU 的费用,因为现在它大约是 30-35%。
这是产生电荷的全部功能。我怎样才能减少它?或者我不能?使用 WindowsAPI 以外的其他捕获方法?
我试图减少每秒的样本,但这并没有太大帮助。我想这与缓冲区有关,但需要任何提示。
干杯