问题标签 [pocketsphinx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 用于 Android 听写应用程序的 PocketSphinx
我正在尝试使用Android 上的 PocketSphinx和 Keith Vertanen 的一种语言模型来实现“听写”功能。我已将示例修改为如下所示:
哪里lm_csr_5k_nvp_2gram.arpa
来自 Keith Vertanen 网站上的 5K NVP 2-gram 下载。
我收到此错误:
线条
让我觉得lm_csr_5k_nvp_2gram.arpa
文件格式不正确或其他什么。该文件如下所示:
至少看起来像这里的示例文件。
我唯一的另一个想法是扩展名可能是错误的,因为这说
语言模型可以以三种不同的格式存储和加载——文本 ARPA 格式、二进制格式 BIN 和二进制 DMP 格式。ARPA 格式占用更多空间,但可以对其进行编辑。ARPA 文件具有 .lm 扩展名。二进制格式占用的空间大大减少,加载速度更快。二进制文件具有 .lm.bin 扩展名。也可以在格式之间进行转换。DMP 格式已过时,不推荐使用。
这听起来像是文件应该被命名lm_csr_5k_nvp_2gram.lm
而不是lm_csr_5k_nvp_2gram.arpa
. 但是,我确实尝试重命名文件,但没有对异常进行任何更改。
这样做的正确方法是什么?
android - 如何在 Android Studio 1.5 中导入 Pocketsphinx 库?
我正在尝试将 PocketSphinx 导入使用 Android Studio 1.5 的项目中。 本页详细介绍了如何安装和使用该库。但是我偶然发现了以下步骤:
在 Android Studio 中,您需要将 jar 文件放在 app/libs 文件夹中,并将 jni .so 文件放在 app/src/main/jniLibs 文件夹中。
我的项目目录树不包含这些目录,我自己也无法创建它们。这是我的目录树:
该网页还提供了一个示例 android studio 项目,它工作得很好,但我认为它是为旧版本的 android studio 设计的,因为目录结构与我以前见过的任何应用程序完全不同(虽然我确实有几年其他领域的编码经验,我最近 2 或 3 个月才开始开发 android 应用程序)。这是它的目录树的样子:
(这次我没有展开整棵树)
最后一件事:我尝试使用“文件->新建->导入模块”导入库(可在此处下载)但是这样做会破坏项目(并且无法通过简单地单击“撤消”来修复) . 我得到的错误信息是:
V:\Documents\ButterflyMilk\SpeechRecDemo\pocketsphinx-android-master\build.gradle
错误:(7, 0) 在 org.gradle.api.internal.artifacts.dsl.dependencies.DefaultDependencyHandler_Decorated@606a97f 上找不到属性“sdkDir”。打开文件
在代码视图的顶部,它现在永久显示:
Gradle 项目同步失败。基本功能(例如编辑、调试)将无法正常工作。
提前感谢您提供的任何帮助和建议!我还将很快再次注意到,提供的示例程序运行良好,并且我已经设法对其进行了调整并使用它。但是我仍然需要能够将库导入到单独的项目中。再次感谢
pocketsphinx - Pocketsphinx 安装不包含声学模型定义 mdef
我试图在 Windows 上安装 pocketsphinx 5 prealpha。但它似乎被困在下面的这个错误中。
信息:feat.c(715):初始化特征流以键入:'1s_c_d_dd',ceplen=13,CMN='current',VARNORM='no',AGC='none' 信息:cmn.c(143):mean [0]= 12.00, mean[1..12]= 0.0 错误:“acmod.c”,第 83 行:文件夹 'model/en-us/en-us' 不包含声学模型定义 'mdef'
我的 sphinxbase 和 pocketsphinx 文件夹位于同一个父文件夹中,我已将其重命名为指令。
我如何编译它
我检查了所有目录,它确实包含没有扩展名的 mdef 文件。
我应该怎么办?
谢谢你。
python - 在 WAV 文件上运行“pocketsphinx_continuous”时出现 FATAL_ERROR
我遇到如下错误代码
出现并解决了同样的问题。
http://sourceforge.net/p/cmusphinx/discussion/help/thread/f609780c/ http://sourceforge.net/p/cmusphinx/discussion/help/thread/c8b7d2be/?limit=25#8b63
但我什至找不到这样的文件或目录“pocketsphinx/src/libpocketsphinx/hmm.h”
我目前正在使用 MacOSX 10.11 并使用“brew install cmu-pocketsphinx”安装了 pocketsphinx
有没有人解决或遇到这个问题?
python - 如何在python中使用带有gstreamer-1.0的pocketsphinx(5prealpha)?
我正在尝试创建一个小型 Python 脚本,该脚本将通过网络接收音频流,通过 pocketspinx 提供它以将语音转换为文本并根据 pocketsphinx 的输出运行一些命令。
我已经在 Ubuntu 15.10 vm 上安装了 sphinxbase 和 pocketsphinx (5prealpha),并且能够在 Python 中正确处理示例音频文件(pocketsphinx 安装的一部分)的内容。所以我有理由确定我的 sphinx 安装工作正常。不幸的是,测试 python 脚本无法处理连续音频并使用本机 pocketsphinx API。根据 cmusphinx 网站,我应该使用 gstreamer 进行连续翻译。不幸的是,关于如何在 Python 中将 pocketsphinx 与 gstreamer 一起使用的信息非常有限。根据我可以找到的示例,我拼凑了以下脚本。
发送方如下所示:
这应该从网络接收一个 udp 流,将其输入到 pocketsphinx 并将输出打印到终端。如果我更换'队列!口袋狮身人面像!fakesink 部分由 'wavenc !filesink',我确实得到了一个内容正确的有效音频文件,所以我知道网络发送部分工作正常。(我的测试机器上没有音频,所以我无法使用本地音频源进行测试)。
当我启动脚本时,我看到了 pocketspinx 配置,但是脚本似乎不再做任何事情了。当我使用 GST_DEBUG=*:4 启动脚本时,我看到以下输出:
根据我在谷歌上搜索的信息和示例,我不明白出了什么问题。
任何帮助将不胜感激。
尼科
android - 使用pocketsphinx将音频文件转换为文本文件
女士/先生们美好的一天!我是 android 应用程序开发的新手,我真的需要帮助。我正在开发一个 Speech-to-Text 应用程序,尽管它不是应用商店中常见的 STT 应用程序。我正在使用 pocketsphinx 进行离线语音识别和转换,以及 Android Studio IDE。
我的应用程序具有三个主要功能,它们是:
- 录制 - 用户可以在此处录制他/她的演讲。录制的语音将保存到设备的存储中。
- 图书馆 - 用户可以在这里看到他/她录制的语音和转换的音频到文本文件。还有转换功能,用户可以将他/她录制的语音转换为文本文件。
- 编辑 - 用户可以在这里编辑他/她的音频/文本文件。只有剪切、删除和修改(仅文本)是可用的功能。
我的主要问题是,实际上是否可以使用 pocketsphinx将录制的语音转换为文本?为了让它更容易理解,我尝试了pocketsphinx的演示,我通过它体验到的是,当你通过设备说话时,它会直接转换你所说的内容。不像我的想法,你可以录制你的演讲,并随时将其转换为文本。如果可能的话,我很困惑,如果是的话,有人可以告诉我/解释一下吗?如果不是,有人可以告诉我/向我解释遵循我的想法的其他方法吗?提前致谢!
python - 如何使用 gstreamer 在 pocketsphinx 中设置配置选项
可能是一个非常愚蠢的问题,但我无法在任何地方找到解决方案。当我运行“gst-inspect-1.0 pocketsphinx”时,我得到如下信息:
我知道如何设置“元素属性”的值,但如何设置其他配置选项的值?例如,我想为 'keyphrase' 设置一个值,但执行类似的操作
或者
返回
ios - 在 iOS 上使用 OpenEars 由于背景噪音导致识别不佳
我在我的应用程序中使用OpenEars来识别一些单词和句子。我遵循了离线语音识别的基本教程并在 Swift 中执行了移植。这是设置过程
识别在一个安静的房间里对单个单词和整个句子都很有效(我会说它有 90% 的命中率)。然而,当我在安静的酒吧里尝试背景噪音很轻的时候,应用程序在识别单词时遇到了严重的困难。当有背景噪音时,有什么方法可以改善语音识别?
python - 在 Python3、Lubuntu 15.10 中安装 PocketSphinx
我已经安装了 PocketSphinx(python-pocketsphinx、pocketsphinx-hmm-wsj1、pocketsphinx-lm-wsj),但是由于尝试运行一段 Python3 代码来识别音频文件中的语音而出现此错误。
我安装了 Python 2.7、Python 3.5 和 Anaconda 以使事情变得复杂,我猜这个错误可能是由于某种原因造成的?
我已将以下几行添加到我的~/.bachrc
.
不确定是放 python3.5 还是 2.7,但是 3.5 给了我一个错误[...] ImportError: No module named '_sysconfigdata_m'
。我还删除了为设置 anaconda 的路径而自动添加的行,并且不需要此项目的 Anaconda 包。
如果有任何帮助,这里也是代码:
我非常感谢帮助纠正我的错误,并希望也能整理出我的不同 Python 版本的混乱......
python-2.7 - 缺少带有 pocketsphinx-python 的声学模型定义 (mdef)
我最近安装pocketsphinx-python
在 Lubuntu 15.10 上,我想对音频文件(最好是 8kH)进行语音识别。尽管我不明白,但我收到一条错误消息,因为我的文件mdef
夹中有一个名为的文件/usr/share/pocketsphinx/model/hmm/en_US/
,它说我没有:
这是我的 Python3 脚本:
我是否完全偏离了我的代码的轨道,还是我必须做其他事情才能让它工作?