问题标签 [julius-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
julius-speech - 在 Julius 语音识别上触发脚本或外部程序
我正在尝试在 ubuntu 上使用 Julius。几个小时后,我终于开始工作了。
基本上,我唯一需要它做的就是在它识别出某个单词(例如“计算机”)时触发脚本。这是主要问题。最好的方法是什么?
此外,我似乎无法以“安静”模式运行 Julius
仍然输出太多信息:
Stat:以 16000Hz 捕获音频
统计:adin_alsa:延迟设置为 32 毫秒(块 = 512 字节)
错误:adin_alsa:无法从卡控制中获取 pcm 信息
警告:adin_alsa:跳过详细音频设备信息的输出
STAT:已创建 AD-in 线程
警告:剥离:样本 0-27 的值为零,已剥离
pass1_best:
DOWarning: strip: sample 192-444 has zero value, strippedpass1_best:
玩句子1:
玩pass1_best:
句子1:玩pass1_best:Warning: strip: sample 406-436 has zero value, stripped
等等。
有什么建议么?
python - python pause pexpect.spawn 及其使用的设备
我在 python 中使用 pexpect 从我的家庭自动化项目的音频输入中接收连续的音频数据。有没有办法暂停 pexpect 使用我的音频设备?或者我可以在两个单独的程序/脚本中使用音频设备吗?
我想做的是:使用语音识别(julius)来听关键字。对于更复杂的命令,我想使用 Google 的 Speech to Text API,因为它的准确性更高。这两件事分别工作得很好。
我的问题是:一旦找到关键字,就需要记录音频数据并将其发送到 Google API。但是,我只有一个音频设备,这已经被 julius 的语音识别使用了。我无法.close 和 .spawn 语音识别,因为加载需要很长时间。是否有可能暂停预期?或者你们知道任何其他的解决方法吗?
最佳,MGG
linux - HARK 语音识别
我正处于使用 HARK 开源设计语音识别应用程序的研究阶段(强制使用 HARK),但 HARK 系统文档让我感到困惑。
我已阅读以下 HARK 系统文档:
我需要一个语音识别解决方案,而 HARK 系统似乎是我的机器人试听项目的理想完整应用系统,因为它包含许多功能,例如:声音定位、功能转移和语音识别。
我的问题是我仍然不知道 HARK 系统打算如何使用或如何使用/与 HARK 开源通信。
我正在呼吁具有 HARK 系统经验的人帮助我走上正轨。
julius-speech - 回复:朱利叶斯语音识别
我正在为我的应用程序使用 julius 语音识别。我对朱利叶斯有一个疑问:
我已经下载了最新版本,并成功使用了它的 lib 并使其工作。我面临的问题是..一旦应用程序启动并且我在我的应用程序中调用语音识别功能...它从麦克风获取输入并显示麦克风中所说的任何内容,但该功能仍然会继续这样做并且再次。控制永远不会脱离该功能。在这里我遇到了问题,因为控件没有返回我无法继续进行。我想要的是一旦引擎从麦克风获得输入,它应该识别并停在那里..我试图通过删除回调函数来做到这一点,但没有成功。
谁能在这件事上指导我,我需要做什么才能获得所需的输出。这对我会有帮助。
speech-recognition - julius:即使安装了命令也找不到
我正在使用语音处理,需要安装julius
. 我在我的 Mac 上执行了以下命令:
这安装了 julius-4.3.1。但是,当我输入 julius 时,我得到:
所以我尝试重新安装 julius,但收到此消息:
甚至julius-4.3.1
不是公认的命令。那么如何在 Mac 上安装 julius?
sip - 如何播放 SIP RTP 数据包
我正在开发 Windows,试图在 .NET 中制作一个应用程序来捕获 RTP SIP 流量信息,并将其发送给 julius 进行单词检测,例如,如果在线上的人说“one” julius 可以根据语法检测归档单词“一”、二、三等。使用麦克风输入进行测试,julius 运行良好,检测效果很好。我的问题是音频将不再来自麦克风,因为它将来自 RTP sip 呼叫。那么,如何将 RTP 音频数据包从网络传递到 julius 输入?也许我可以即时将 RTP 转换为音频并将其传递给麦克风输入,以便 julius 可以进行检测?
speech-recognition - 保存 Julius 的文本输出
我在 Windows 10 上运行 Julius 语音识别,并希望只保存对文本文件所说的任何内容的文本输出,即下面标记的“句子 1 行”的值。我已经通过文档和在线搜索,但没有找到任何方法来做到这一点。理想情况下,每次通过麦克风接收到新输入时,都会重写或附加文件。如果在文本文件中提供了更多信息,我可以对其进行搜索以查找我需要的内容,这样就可以了,但我不知道是否有办法实际写入文本文件。
terminal - 在 Ubuntu 18.04 命令行中运行 julius.jconf 时出错
我已经根据他们git repo上的快速运行说明安装了 julius ,但得到的结果是混合的,永远不会运行。但是,在运行此线程中建议的快速入门时,我已经能够让程序运行。
使用旨在识别“官方” julius 演示中包含的音频文件的命令../julius/julius/julius -C mic.jconf -dnnconf dnn.jconf -input mic
,我收到以下错误:
快速入门在麦克风上运行julius -input mic -C dnn.jconf
,我已将其修改到julius -input mozilla.wav -C dnn.jconf
为 julius 演示创建的目录中,但收到错误消息Segmentation fault (core dumped)
。
很明显,从麦克风接收音频没有问题,但我不确定在 julius-speech 快速运行中我哪里出错了。我们欢迎所有的建议!
python - 用于捕获语音以供 Julius 识别的 adintool 或psychopy?
我正在与Julius合作以识别语音。只要麦克风正在运行,我希望将语音始终传递给 Julius,并将单个单词存储到库中。我正在寻找仅在以最低的内存和数据使用率检测到语音时记录和/或传递音频的最佳方法。
adintool是为 Julius 开发的。会是这样的代码:
建议使用 adintool 可以让我在服务器模式下将音频传递给 Julius?
PsychoPy是基于 Python 的,虽然我更熟悉 Python,但 Julius 是用 C 编写的。PsychoPy 会录制声音并将其作为 WAV 文件发送给 Julius。这让我怀疑它会更依赖内存和数据资源。
这个线程有一些有用的建议,只在有声音的时候录音。在 adintool 或 PsychoPy 之前使用它是否有意义?还是那些工具已经具备这种能力?
摘要:在 adintool 和 PsychoPy 之间,这是 julius 处理的轻量级音频捕获的最佳选择,并且仅在有声音时才需要额外的代码来录制/捕获?