问题标签 [openears]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
708 浏览

ios - 如何在调整中使用 OpenEars?

我正在尝试将 OpenEars 包含在我正在制作的 theos 项目中,这是针对越狱 iDevices 的调整,因为我的调整需要语音识别。我可以通过将 OpenEars 框架与我的私有框架放在同一个文件夹中来链接它,我目前正在尝试让教程代码正常工作。这是我当前的代码:

这编译得很好,但是当它运行时,我收到这些错误消息并且我的设备崩溃:“在尝试引用预期位于路径(null)的请求的声学模型包时,没有找到包。这意味着当监听循环开始时,由于缺少所需的资源,它将崩溃。找到声学模型包的问题可能是因为包的名称没有以它可以使用的方式提供给此方法;例如,如果您正在尝试要使用英语声学模型并且您已将该捆绑包添加到您的应用程序项目中,您可以通过传递[AcousticModel pathToAcousticModel:@"AcousticModelEnglish"](或[AcousticModel pathToAcousticModel:@"AcousticModelSpanish"]对于西班牙语包),不要在末尾附加“.bundle”,并确保包名的拼写与实际包名中的拼写完全一致(可以在此发行版的文件夹“Framework”中看到包。

如果这不能解决问题,很可能是由于声学模型包没有成功导入到您的应用项目及其 mainBundle 的根级别。这通常是因为声学模型包在最初应该被拖入“框架”文件夹时从未被拖入您的应用程序项目,或者因为它被拖入但没有使用设置“为任何添加的文件夹创建组”在 Xcode 的“添加文件”对话框中,无意中选择了“为任何添加的文件夹创建文件夹引用”选项。要解决此问题,只需从您的应用程序中删除声学模型包或“框架”文件夹,然后使用正确的“为任何添加的文件夹创建组”设置将其再次添加到您的应用程序项目中

我还在我的系统日志中收到这些消息:

非常感谢任何帮助完成这项工作。谢谢!

0 投票
1 回答
282 浏览

ios - OpenEars 中的静态和动态语言模型有什么区别吗?

我一直在尝试使用 OpenEars 创建游戏。我正在使用动态语言模型方法。但性能并没有达到标准。认可度非常低。使用静态语言模型有什么优势吗?还有其他提高语音识别的方法吗???

0 投票
1 回答
389 浏览

ios - 在具有多语言支持的 iOS 应用程序中使用 Openears 的最佳方式是什么?

我正在开发一个用于“语音到文本”的应用程序,为此我正在使用 openears。我知道它的语言模型和 dic 文件。

但是创建整个词汇的语言模型是个好主意吗?(英语语言模型大小为 125 MB)

如何实现多种语言的“语音到文本”。我应该为每种语言创建语言模型吗?如果我在我的应用程序中导入 10 种语言模型,我的构建大小会怎样?

提前致谢。

0 投票
1 回答
391 浏览

ios - 尝试使用法国声学模型

我正在尝试使用带有 OpenEars 的法国声学模型。Ramshad的回答非常有趣。但是我已经下载了法国声学模型,但我不知道如何使用它......

我已经用这些文件制作了一个捆绑包,并将它添加到我的项目中,我调用了 generateLanguageModelFromArray 方法。但是当我打开生成的 .dic 文件时,拼音字符似乎是错误的。如果我试着说话,它什么也认不出来。

日志如下:“Pocketsphinx 检测到一段时间的静默,结束一段话语。”

有人可以更好地解释我应该如何使用它吗?

谢谢

0 投票
1 回答
1199 浏览

ios - 蓝牙耳机无法用作 iOS 和 OpenEars 的音频录制捕获

我们正在构建一个执行基本语音识别的 iOS 应用程序。基本上,该应用程序会计算您对 iOS 设备说的字数。当对着 iPhone 内置的标准麦克风讲话时,该应用程序运行良好。但是,当连接无线蓝牙音频设备时,我们无法将该蓝牙设备用作录制语音音频的方法。我们正在使用以下软件和设备:

根据 OpenEars,蓝牙音频设备应该会被自动拾取(http://www.politepix.com/forums/topic/enabling-bluetooth-support/)。我们是否正确地假设了这一点?

我们使用 VoiceMemo 应用程序(iOS 附带的录音应用程序)来测试蓝牙设备作为“控制”实验:

  • 将 ZOMM 与 iOS 设备配对
  • 打开语音备忘录
  • 从 VoiceMemo 应用程序中选择 ZOMM 作为输入设备
  • 开始录制
  • 停止录制 - 未捕获音频

不幸的是,这意味着我们的应用程序和标准的录音应用程序都不能使用蓝牙设备作为录制音频的手段。无论哪种方式,都很难将设备视为简单的问题。

我们很想知道这是否只是一个硬件问题(并且需要支持蓝牙到 iOS 的语音录制的设备),或者我们需要启用代码中的某些内容,以便应用程序开始接受设备作为可记录。

此外,有关 ZOMM 耳机的更多详细信息:

ZOMM 规格: 蓝牙无线兼容性:此 ZOMM 设备支持以下蓝牙无线协议和配置文件: • 蓝牙核心技术 v2.1+EDR • 免提配置文件 (HFP) v1.5 耳机角色 • 耳机配置文件 (HSP) v1.2耳机角色蓝牙无线互操作性:此 ZOMM 设备旨在与支持兼容配置文件和角色的所有蓝牙无线产品互操作,包括:蓝牙核心技术 v3.0、v2.1+EDR、v2.0 +EDR、v1.2 蓝牙主从角色 蓝牙免提配置文件 (HFP) v1.5 和之前的耳机 (HS) 角色 蓝牙耳机配置文件 (HS) v1.2 和之前的耳机 (HS) 角色

关于我们可以做些什么来解决这个问题并将蓝牙与 iOS7.1 上的 OpenEars 库一起使用的任何想法?

谢谢!菲利普

0 投票
1 回答
188 浏览

xcode - Openears识别后可以输出音频声音文件吗?

我正在研究 Openears,但我遇到了问题。

我正在制作一个带有语音识别功能的应用程序,我需要确保识别后的输出是一个保存的.wav文件(例如:当我说什么时,识别后会有铃声)。

有人可以告诉我 Openears 是否可以做到,我该怎么做?

0 投票
1 回答
714 浏览

ios - 在应用程序中访问 iOS 语音识别

目前我正在使用张开的耳朵来检测一个短语,并且效果很好,尽管我想识别英语中的所有单词并将其添加到文本字段中。所以我对如何处理这个问题有两个想法。

1) 不知何故将整个英语词典加载到 OpenEars 中。(我认为这不是一个好主意,因为他们会说 2-300 字或类似的东西

2)无需部署键盘即可激活原生iOS语音识别。

如果可能的话,我倾向于第二种方式,因为我喜欢 iOS 8 中的实时识别,它对我来说完美无缺。

我如何使用这两种方法之一识别所有单词(或者如果你知道更好的方法)?

谢谢

0 投票
1 回答
573 浏览

javascript - Cordova/Phonegap OpenEars 语音识别

我正在尝试使用此插件将 OpenEars 插件包含到 phonegap/cordova https://github.com/karljacuncha/OpenEarsPlugin

我遵循了自述文件,但最终出现了丢失文件的错误,所有这些文件都找不到:(

在此处输入图像描述

关于如何集成库的任何帮助/建议?

谢谢您的任何建议!

0 投票
0 回答
316 浏览

android - 在 Android 上识别非英语单词

是否有任何类似于 OpenEars for Android 的 API。我有一个项目来识别非英语单词。

我想要的只是当我说 Machan 时,我需要与输出相同的文本。这可能吗?我尝试了musicg,它使lib识别口哨声。

0 投票
1 回答
1074 浏览

xcode - Xamarin OpenEars 本机绑定无法在设备上运行,但在模拟器上运行

我一直致力于在 xamarin iOS Binding 项目中使用 OpenEars v2.03 iOS 框架项目。让我解释一下我到目前为止所做的事情。我是 XCode、Xamarin 和所有这些 Binding 的新手。这将是一个大问题,所以请屏住呼吸……</p>

1) 在 Xcode for Simulator 中构建 OpenEars 框架项目。从Framework/OpenEars.framework/Versions/Current/复制“OpenEars”文件并重命名为“<strong>libOpenEars-i386.a”</p>

同样,通过将设备连接到 Mac 并为我的 iPhone 选择目标,为 iPhone 4s 设备构建相同的库。最后复制生成的OpenEars,重命名为“<strong>libOpenEars-armv7.a”</p>

2) 使用lipo命令将两个文件(libOpenEars-i386.a、libOpenEars-armv7.a)捆绑到一个文件“libOpenEars.a”,使用以下命令。

3) 在 Xamarin Studio 中创建一个 Binding 项目并添加 libOpenEars.a,它会自动生成一个libOpenEars.linkwith.cs。下面是下面的代码,

我尝试更改喜欢的标志 LinkerFlags = "-lstdc++ -lc++ -ObjC" 和 SmartLink=false。

4) 我的 ApiDefinition 文件包含了 OpenEars 的所有接口,我这里只添加了一个接口。

5) 将 OpenEars.dll 引用到我的 iOS 示例项目中。

6)在Binding库本身中添加语言模型和声学模型。(即使动态语言模型生成不需要它,我使用了这个OpenEars Xamarin git中的旧 OpenEars 示例项目,我没有使用新的 DynamicLanguageModel 生成器,但修改了示例以进行最新更改)。

视图控制器:


<strong>OpenEarsEventsObserverDelegate:

这在 iOS 模拟器上完美运行,但不能在真实设备上运行。

模拟器屏幕截图。

我在设备上运行时收到此错误消息。所有接口都收到相同的消息。

我是否缺少与设备绑定相关的任何内容?

我也尝试使用 make 文件构建相同的 .dll,但得到了相同的错误消息。

构建 OpenEars 框架:

生成 OpenEars.dll 的 MAKE 文件

在此处查看完整的 mtouch错误日志

检查 $nm -arch armv7 libOpenEars.a

nm 命令在这里输出

检查模拟器中存在的 OEEvent (i386)

输出

检查了 OEEvent 存在于 armv7

输出

我不确定我错过了什么。是的,有很多语法错误,我感谢您花时间阅读本文。