我只需要在linux中使用语音识别库。然后我选择CMU Sphinx,并使用pocketSphinx和python。我测试demo。此示例在我的计算机中运行良好,准确性较差。
我知道我需要一个语言模型,我已经下载了它。所以,如何设置我的pocketSphinx使用'lm'。我的意思是,如何修复该演示文件以使用该语言模型。 (和声学模型。)
答案 0 :(得分:2)
语言模型是通过pocketsphinx gstreamer组件的属性配置的。而不是
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx name=asr ! fakesink')
使用
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx lm=<your_file.lm> name=asr ! fakesink')
您也可以配置pocketsphinx组件的其他属性。使用gst-inspect读取列表。