14

我最近开始研究OpenEars语音识别,它很棒!但我还需要支持其他语言的语音识别和听写,如俄语、法语和德语。我发现这里有各种声学和语言模型。

但我无法真正理解 - 我需要在应用程序中集成额外的语言支持就足够了吗?

问题是 - 我应该采取哪些步骤才能成功地将(例如俄语)整合到 Open Ears 中?

据我了解 - Open Ears 演示中用于英语的所有声学和语言模型都位于文件夹hub4wsj_sc_8k中。在voxforge 语言档案中可以找到相同的文件。所以我只是在演示中替换了它们。有一点不同 - 在演示英语中,还有一个sendump2MB 的大文件,它不在 voxforge 语言档案中。Open Ears 演示中使用了另外两个文件:

  • OpenEars1.languagemodel
  • OpenEars1.dic

这些我替换为:

  • msu_ru_nsh.lm.dmp
  • msu_ru_nsh.dic

因为 .dmp 类似于 .languagemodel。但应用程序崩溃没有任何错误。

我究竟做错了什么?谢谢你。

4

1 回答 1

10

根据我的评论,重新发布为答案:

[....] 此类问题的第 1 步是打开 OpenEarsLogging 和 verbosePocketsphinx,这将为您提供有关问题所在的非常精细的信息(在控制台输出中搜索错误和警告字样以节省时间)。可以在文档中找到有关执行此操作的说明。随时向 OpenEars 论坛提出问题 [....]:http ://politepix.com/forums/openears您可能还想查看此线程:http ://politepix.com/forums/topic/other - 语言

解决方案:

为后续读者跟进,在打开日志记录后,我们通过使用 mix_weights 文件代替 sendump 并确保语音词典使用声学模型中存在的音素而不是英语音素来实现此功能.

可以在此处阅读我们完成此故障排除的完整讨论:http ://www.politepix.com/forums/topic/using-russian-acoustic-model/


更新:自从本周发布 OpenEars 1.5 以来,可以将任何声学模型的路径作为主要聆听方法的参数传递,并且有一种更加标准化的方法来打包和引用任何声学模型,因此您可以拥有许多在同一个应用程序中的声学模型。此论坛帖子中的信息取代了我在此答案中链接到的讨论中的信息:http ://www.politepix.com/forums/topic/creating-an-acoustic-model-bundle-for-openears-1-5 -and-up/由于历史原因,我留下了其余的答案,因为该讨论中可能有一些仍然有用的细节,但可以跳过它以支持新链接。

于 2013-05-10T15:51:11.487 回答