问题标签 [jack]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - Low latency process on single core with embedded Linux
I would like to run a single low latency task (for audio, ALSA/JACK
) on a separate core with an embedded Linux system. Removing scheduler and other interrupts might be the key here.
There were several approaches I found so far, e.g. cpusets
and an offline scheduler from 2009 (which unfortunately does not support user space tasks).
Is there a newer/more convenient way to achieve this?
linux - 如何在 Raspbian 下设置 jackd 和 guitarix 的实时优先级?
我正在尝试让guitarix和jack在带有raspbian的Raspberry Pi 2(+ Cirrus声卡)上运行。通过 qjackctl 启动千斤顶时,出现错误
似乎对/etc/security/limits.conf的更改不适用,但对/etc/security/limits.d/audio.conf有效。
我尝试为用户和组设置内存锁定大小:
从 ssh 我得到了满意的结果:
但是从我通过 vnc 访问的桌面终端我得到
同一个用户如何有不同的设置,我如何在桌面上运行 rt 和内存分配?
redirect - 如何使用 JACK 将音频输出重定向到输入?
我想将我的 USB 耳机(USB PnP 声音设备)的音频输出重定向到使用虚拟音频电缆创建的虚拟线路输入端口(线路 1)。AFAIK,杰克可以做到这一点,但我是杰克的新手。我只需选择“USB PnP 声音设备”作为输入,选择“Line 1”作为输出。
我需要在 JACK 中哪里指定这些参数?
web-audio-api - 将 Jack 与 Web 音频上下文连接
Web Audio context
是否可以将与互连Jack audio connection kit
?
我的浏览器没有出现在 QjackCtl 中,只有系统声音可用。所以我无法将我的音频网络应用程序连接为音频元素,例如音效。
c++ - 开始为jack-audio开发
我对在 linux 上进行开发很陌生,很抱歉这个愚蠢的问题。我正在尝试使用 jack 开发一些东西,当我尝试安装开发头文件和库时,出现以下错误:
我想这是因为我从 kxstudio 存储库更新了 jack,但可能开发的不同。有没有什么办法解决这一问题?
linux - Linux如何在RAM缓冲区中录制声音并以自定义延迟播放音频
我需要使用嵌入式 linux 系统将音频从收音机发送到辅助系统。
辅助系统需要建立一个通信通道,这需要几秒钟。
因此,如果我不想丢失音频的开头,我需要一种方法来录制声音并以自定义延迟(最多几秒钟)播放它。
应该可以开始arecord
在 tmpfs 文件系统中的文件中录制音频,并且当有通信传入时,启动aplay
. 但在这种情况下,开始仍然丢失,因为记录的信号来得太晚了。
Linux 上是否有一个程序可以在 RAM 的环形缓冲区中连续录制声音并能够按需自定义延迟播放?
如果不是,那么在嵌入式系统上编写此类程序的最佳库是什么?alsa 还是别的什么?
ffmpeg - 如何将 ASIO 设备的输出输出到 IceCast2 或 FFMpeg?
我有一个 ASIO 设备(Presonus Firestudio 2626)。我正在使用它在所有提供的输出上混合和创建不同的输出(大约 9 个输出,如 ADT1、ADT2)。我需要以某种方式使用 IceCast 或 FFMpeg RTP 流式传输这些输出。
问题之一是我只能使用 MAC 或 Windows 机器,因为我的 ASIO 设备不提供 ubuntu 驱动程序。
我可以通过哪些方式将 ASIO 设备输出连接到 IceCast 或 FFMpeg?
我试过以下。
Windows:
Jack - LiquidSoap - IceCast
问题是 Windows 上的 LiquidSoap 不适用于 Jack。
虚拟音频线 - 对接 - IceCast
虚拟音频线效率非常低。超过 2 个流,它崩溃了。
Mac:
Jack - DarkIce - IceCast
Jack 不适用于 Snow Leopard 以上的 Mac 版本。
有人可以帮助我使用哪些工具以及如何做到这一点?我是这方面的新手,所以请提供一些细节。
python - 仅将 Python 音频输出路由到虚拟录音设备
我有一个 python 脚本,它使用 gmusicapi 和 vlc 库来创建一个媒体播放器,该播放器根据在聊天/VOIP 程序中输入的文本命令接收请求。在 python 中的 Windows 10/ 上,有没有办法只获取来自 python 脚本的音频并将其路由到虚拟录音设备?
我在想也许使用 JACK 库,但我还不熟悉 JACK
本质上SoundLeech所做的只是将音频路由到虚拟录音设备而不是写入文件。
赢 10/Python 2.7
clojure - Clojure & Overtone:Jackd 没有启动
我正在尝试使用 Overtone,但是当我启动它时,我收到一个关于 jackd 的错误。
这是 Ubuntu 14.04 的全新安装,我在其中安装了 leiningen 并尝试安装此处建议的内容:https ://github.com/overtone/overtone/wiki/Installing-and-starting-jack
他们建议运行的 jackd 命令也不起作用并且也会出错。