问题标签 [mixer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 使用混音器混合两个音频文件
如何将两个音频文件混合到一个文件中,以便生成的文件可以同时播放两个文件?请帮助..这里我正在做的是我正在获取两个文件并将它们连接到另一个文件中..但我希望文件同时播放..
python - 在 pygame 中播放音乐的简单代码不起作用
所以我看了很多如何在pygame
. 下面的代码是我走了多远。但是当我运行它时,没有错误代码,而且实际上什么也没发生。有人可以告诉我要更改什么或实际工作的代码吗?我研究了很多,但没有任何帮助。
java - 是否可以控制 Mixer.Info 字符集?
我有俄语 Windows 7,其中一些设备以俄语命名。如果我通过我获得了混音器之类的设备,AudioSystem.getMixerInfo()
我已经Mixer.Info.getName()
错误地解码为 unicode。
是否可以控制转换或者这是 Java 设计错误?
更新
实际上,Java 从 CP1252 解码为 unicode,而我的默认语言环境是 CP1251。用CP1251怎么说?
java - 如何区分 DirectAudioDevice 和 PortMixer 混音器?
我正在用AudioSystem.getMixerInfo()
. 我发现返回的混音器有时会重复。调查显示,退回的混频器有4台属于等级DirectAudioDevice
,6台属于等级PortMixer
。这两个类都是 Java API 的未记录类。
我希望向用户展示每个麦克风只有一个副本,而在我的情况下,他们返回了DirectAudioDevice
和PortMixer
.
那么,问题来了:这两个类有什么区别,在运行时如何区分呢?
更新
我发现DirectAudioDevice
每个麦克风的版本getLine(Port.Info.MICROPHONE)
在返回一条线时什么都不返回getTargetLineInfo()
,而PortMixer
麦克风的版本在返回一些东西getLine(Port.Info.MICROPHONE)
时返回目标线和源线,而目标线的标题是“响度”......
objective-c - 在 Objective C 中使用 CoreAudio 混合 MIDI 音频通道
我正在尝试编写一个程序来接收来自不同乐器的 MIDI 信号。目前,MIDI 信号被发送到采样器单元 (kAudioUnitSubType_Sampler),每个采样器单元都有一个相关的音效 - 由声音字体提供。单独我可以让乐器正确演奏,但是我需要能够混合多种乐器。
起初我想为每个音轨创建一个单独的 AUGraph,但我想这会占用大量内存并且不是最好的解决方案。
从那时起,我一直试图让混音器工作(kAudioUnitSubType_AU3DMixerEmbedded)。在设置了其他音频单元(我已经测试过)之后,我使用以下代码设置了混音器:
然后我打开图表:
接下来我设置流描述:
最后,我将所有节点连接在一起:
我将混音器连接到 io-unit。第一个采样器连接到混音器上的总线 0,第二个采样器连接到采样器上的第二个输入总线。这是 CAShow 的副本:
当我初始化图表时,我得到一个 OSStatus -10868。我见过使用环形缓冲区和渲染回调的例子。在使用 MIDI 时或仅在从麦克风等现场设备获取输入时是否需要这样做?我真的很想知道我的一般方法是否可行(即它应该可以正常工作,但我在某处犯了一些小错误),或者我是否需要花几个小时阅读有关环形缓冲区的信息。
任何帮助将不胜感激!
android - Android:如何配置“tinymix”以使用“tinycap”录制系统音频
在 Android 中,目前无法使用 Android-SDK 录制系统音频。
因此,我使用了 TinyALSA(从 Android 4 开始)玩了一下,希望我可以重新路由音频输出以便录制它。
当我在我的设备上调用“tinymix”时,我得到以下配置:
有人知道我必须设置哪些参数才能使用“tinycap”捕获播放(例如“多媒体”)吗?
遗憾的是没有可用的文档。
亲切的问候,马丁 M。
java - 在 Java 中,如何记录发送到扬声器的声音输出?
我有一个 Java 应用程序,它从多个来源接收声音,用户的能力之一是将应用程序中发生的事情记录到 AVI 文件中,我想在该视频捕获中包含声音。如何录制用户会听到的声音(例如,所有声音输入混合在一起的结果)?我可以弄清楚如何将实际的声音流输入到视频中,但我不确定从哪里获得该声源。
iphone - 如何让 AuGraph 从文件开头重新启动音频文件?
我正在使用 Apple 的 MixerHost 应用程序。这是如何设置 AuGraph 的一个很好的例子,但是停止按钮实际上是一个暂停按钮。当您点击播放时,它会继续从最后一个位置播放声音文件。我想要一个真正的停止按钮,使播放头移回开始。我在苹果的文档中查找了 AuGraph,但如果创建一个全新的图形,我没有看到任何关于重新开始歌曲的内容,而我不想这样做,因为我有很大的加载延迟。
ios - 如何加快音频文件的加载速度,以免用户等待。
我正在构建一个游戏,让用户重新混合歌曲。我已经构建了一个混音器(基于苹果示例代码 MixerHost(使用混音器 audioUnit 创建一个 audioGraph),但扩展为加载 12 个音轨。一切正常,但是当游戏玩家加载歌曲需要很长时间选择他们想要混音的歌曲。这是因为程序必须先将 12 个单独的 mp4 文件加载到内存中,然后我才能开始播放音乐。
我认为我需要创建一个 AUFilePlayer audioUnit 负责将文件加载到混音器中。如果 AUFilePlayer 可以处理动态加载文件,那么用户将不必等待文件 100% 加载到内存中。我的两个问题是,1. AUFilePlayer 可以这样使用吗?2. AUFilePlayer 上的文档非常非常非常薄。我在哪里可以找到一些示例代码演示如何在 IOS(而不是在 MacOS 中)正确实现 AUFilePlayer?
谢谢
iphone - AudioUnit:如何获取混合音频数据
我使用 AudioUnit 混合两个音频文件,使用 ioUnit 从麦克风录制,我想用混音器获取同步的音频数据并录制,但在“RenderNotify”回调中我只获取录制数据,我该怎么做?
在这个我只得到麦克风的声音,但没有音频文件的声音