问题标签 [pocketsphinx-android]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 如何在eclipse中使用pocketsphinx制作语音识别应用程序?
我需要使用PocketSphinx
. 你能建议我如何使用PocketSphinx
inEclipse
吗?
android - 离线语音识别android采取不需要的声音
我做了很多研究并尝试了离线袖珍狮身人面像,但它正在接受周围的声音,并对我的应用程序做出不同的反应。是否有任何适用于 kitkat 4.4 的 Google 离线应用程序。我从 2 周开始尝试它。感谢您的宝贵回答。
详细信息:当活动开始时,第一个文本必须在完成后阅读内容(文本到语音),阅读语音识别必须采取语音并按照命令例如:(下一个、上一个、前进、选项、1、2、3, 4等)。根据命令,它必须在 onresult 方法中识别并对其做出反应。
错误:我听到一些声音后出现错误
但是,如果我关闭互联网,它就无法离线工作。
在pocketsphinx中,它对正确的单词没有反应。如果我说“下一个”,它会靠近另一个人的语音内容附加“密钥”,这给我带来了很多问题。是否有任何解决方案或库可以离线使用。任何离线谷歌离线语音支持。
下面是我尝试过的代码
在 digit.gram
以上是我的代码,如果有人使用它,请告诉我解决方案这是我的 xml quiz.xml
更新:
如果你使用addKeywordSearch
然后在 digit.gram 中只写
或者
如果您使用的是 addGrammarSearch
然后在 digit.gram
android - 使用 pocketsphinx 的 Android 连续语音识别。如何清除假设?
我目前正在开展一个使用pocketsphinx 实现离线连续语音识别的项目。我已经将它开发到可以识别我说的关键字的程度,但是假设onPartialResults()
并onResults()
没有被清除,并且单词一直附加到字符串中。因此,前面的代码不断被无限调用。
使用hypothesis.setHypstr("");
或hypothesis.delete();
不做任何事情。
我希望它在后台等待,每当我说关键字时,它就会运行代码并再次在后台等待。
android - 即使没有我说话,PocketSphinx android 也会显示结果
我在 android 上使用 pocketsphinx 来发现一个关键字,但它不能识别除所需关键字之外的任何其他关键字。此外,它甚至不等我说话并在 logcat 中显示关键字。
这是我的代码:
这是我还没说话时的 Logcat。
等等...
我究竟做错了什么???
java - 在我自己的 Android 应用程序中设置 PocketSphinx 库
我正在尝试在Pocket Sphinx Library
.
我的方法是,
我刚刚下载了他们的 Android 演示项目。在 Eclipse 中导入它,进行干净构建并在设备上运行它。它运行成功。
在此之后,我将libs
文件夹从演示项目复制到我自己的项目中。我复制了我自己项目中的assets
文件夹内容。然后我根据这篇文章编辑了文件内容。digits.gram
然后Listener
在我的活动中实现并添加addKeywordSearch
到它。
我的问题:
这种方法在我们自己的项目中实现这个库是否正确?我们可以复制粘贴所有文件,
.gram
根据需要修改文件并运行它吗?还是我们需要做一些其他的步骤来生成.gram
文件?当我尝试使用上述方法时,项目在设备上成功运行了几次。但在那之后它开始显示以下错误。
/li>
但是/1e-20/
存在于我的digits.gram
文件中。
digits.gram文件内容:
我注意到一件事,当我对 Pocket Sphinx 的演示项目进行干净构建并运行它时,它会重新创建
digits.gram.md5
文件。但是当我将所有内容复制粘贴到我自己的项目中并进行 cleant-build 时,这些文件并没有重新创建。这是正常的吗?我们项目中的所有文件是否需要像演示项目中一样?或者我可以从我自己的项目中删除一些未使用的文件吗?任何必要文件的列表(在资产文件夹或库或其他文件中)都将非常有帮助。
请让我知道我应该用什么方法在我自己的项目中成功实施它。
我的活动代码
我的项目结构如下
speech-recognition - 如何使用 PocketSphinx Android 在启动时改进语音识别?
我在 Android 上使用 PocketSphinx。识别器初始化后,我启动一个关键字监听器。起初,识别器不会匹配任何东西。但是,几秒钟后,识别器开始匹配性能出色的关键字(初始测试中的 WER 约为 3%)。开始匹配所需的时间取决于单词/短语。这似乎也取决于你说这个词的次数。例如,“加号”匹配得非常快,通常在第一或第二个话语中,平均需要 2 秒才能匹配。另一方面,“请帮忙”大约需要 10 秒,或大约 8-10 个话语。一旦匹配任何关键字,Sphinx 就会为所有关键字进入其高性能模式。因此,一种解决方法(虽然不是一个很好的解决方法)是在初始化完成后立即说“加号”。
关键字文件:
我正在使用 pocketsphinx-android-5prealpha-nolib.jar,并且(如果它有所作为)已经在三星 Galaxy-S3 和摩托罗拉 Moto E(第二代)上进行了测试。无论我是否使用耳机,问题都是一样的。
android - Android 上的长音频语音识别
我想开发一个模块,它将在 Android 中使用语音到文本支持。我发现了许多与RecognizerIntent等相关的文档和演示。但我发现所有这样的演示都只能提取到 10 秒左右的声音。但我希望我的演示运行超过 5-10 分钟。如果它没有离线运行,我没有任何问题,因为我的应用程序始终在线运行。
我也查看了Android 上的 Pocketsphinx,但效果不佳。此外,这仅支持 Android Studio 而不是 Eclipse。
我已经看到许多应用程序提供了连续 5-10 分钟将语音转换为文本的功能,例如:Speech To Text Notepad。
任何人都可以建议任何其他可以实现此目的的演示代码库吗?TIA。
cmusphinx - 如何从pocketsphinx获取语音幅度
当有人说话时,我正在使用 pocketsphinx 来识别 android 应用程序中的单词。我想实现功能以返回pocketsphinx记录的声音的最大幅度。如果我说任何单词,我需要得到一个声音级别作为回报(无论是从解码器识别还是不识别单词)。我做了什么:我查看了当前在源文件中注释的 pocketsphinx-->SpeechRecognizer 的代码:
我似乎是这个最大值是从缓冲区计算我如何从完整的记录中计算出来的。有人可以给我提示吗?
pocketsphinx-android - . 使用 pocketsphinx 提高语音到文本识别的准确性有什么用?
我对使用 pocketsphinx 完全陌生,我遵循了演示应用程序的集成,如
使用 PocketSphinx 的 Android 离线语音识别
在我的应用程序中将pocketsphinx 作为库集成后它工作正常,但输出不如预期准确。即使没有从提供的字典中说出,它也会使用单词。
我想了解,如何提高检测单词的准确性:我最初使用的是 .lm 文件;然后我没有使用它,而是简单地创建了一个 .jsgf 文本文件并使用它,但准确性仍然没有提高,所以在使用 .jsgf 文件后,我需要编译它还是简单地复制粘贴 .jsgf 文本资产文件中的文件就足够了
http://cmusphinx.sourceforge.net/wiki/tutorialandroid在这个链接中给出了构建pocketsphinx-android。我没有这样做。刚刚将其集成为库项目
编码:
我的语法文件
我的日志显示:
android - 带有完整英语转储的 Pocketsphinx 的 Android 语音识别
我需要使用带有完整英文转储的 pocketsphinx 将语音转换为文本。所以我可以看到任何结果。
我遵循了许多教程并试图找到解决方案,但直到现在还没有成功。
我已经关注了pocketsphinx的主要演示。它向我展示了预定义的语法,所以我可以说3个单词。然后我得到了结果。
有什么方法可以使用英语转储,这样我就可以搜索任何内容并使用 pocketsphinx 获取结果。
我搜索了很多,但没有得到任何这样的演示。我得到了一些,但在 android 中不起作用,或者有些有部分信息。如果有人早些时候尝试过并获得成功,那么请帮助我解决这个问题。