我只需要一个 linux 中的语音识别库。然后我选择了 CMU Sphinx,并在 python 中使用了 pocketSphinx。我测试那个演示。此示例在我的计算机上运行良好,但准确性较差。
我知道我需要一个语言模型,我已经下载了它。那么,如何设置我的pocketSphinx 使用那个'lm'。我的意思是,如何修复该演示文件以使用该语言模型。(和声学模型。)
我只需要一个 linux 中的语音识别库。然后我选择了 CMU Sphinx,并在 python 中使用了 pocketSphinx。我测试那个演示。此示例在我的计算机上运行良好,但准确性较差。
我知道我需要一个语言模型,我已经下载了它。那么,如何设置我的pocketSphinx 使用那个'lm'。我的意思是,如何修复该演示文件以使用该语言模型。(和声学模型。)
语言模型是通过 pocketsphinx gstreamer 组件的属性配置的。代替
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx name=asr ! fakesink')
利用
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx lm=<your_file.lm> name=asr ! fakesink')
您也可以配置 pocketsphinx 组件的其他属性。使用 gst-inspect 读取列表。