我最近开始研究OpenEars语音识别,它很棒!但我还需要支持其他语言的语音识别和听写,如俄语、法语和德语。我发现这里有各种声学和语言模型。
但我无法真正理解 - 我需要在应用程序中集成额外的语言支持就足够了吗?
问题是 - 我应该采取哪些步骤才能成功地将(例如俄语)整合到 Open Ears 中?
据我了解 - Open Ears 演示中用于英语的所有声学和语言模型都位于文件夹hub4wsj_sc_8k中。在voxforge 语言档案中可以找到相同的文件。所以我只是在演示中替换了它们。有一点不同 - 在演示英语中,还有一个sendump
2MB 的大文件,它不在 voxforge 语言档案中。Open Ears 演示中使用了另外两个文件:
- OpenEars1.languagemodel
- OpenEars1.dic
这些我替换为:
- msu_ru_nsh.lm.dmp
- msu_ru_nsh.dic
因为 .dmp 类似于 .languagemodel。但应用程序崩溃没有任何错误。
我究竟做错了什么?谢谢你。