如何使用ARPA格式指定使用2克代替1克

时间:2019-02-13 11:40:43

标签: speech-to-text n-gram language-model

我想强迫一些1克仅用于2克。用1克这样的单词表示“ OPEN”或“ CLOSE”,用2克表示“ OPEN DOOR”“ CLOSE WINDOW”,如果您只说“ OPEN”,则不会显示任何内容,但是如果您说“ OPEN DOOR”,则显示匹配项。有任何形式吗?有些人在ARPA中指定了字符,或者也许用值设置了一些概率?

这是针对我正在构建的语言模型,以便与我自己构建的简单聊天机器人在python中的Speech_recognition Pocketsphinx一起使用。我试图修改“ OPEN”和“ CLOSE”的可能性,将它们设置为“ -100.0000”,就像当我只说“ OPEN”或“ DOOR”并且出现在“ DOOR OPEN”中时,它们不会出现, “ WINDOW CLOSE”,“ DOOR CLOSE”和“ WINDOW OPEN”,但未显示“ OPEN DOOR”,“ OPEN WINDOW”等选项

\data\
ngram 1=4
ngram 2=8

\1-grams:
-0.6990 OPEN     -0.2553
-0.6990 CLOSE -0.3776
-0.6990 DOOR     -0.2553
-0.6990 WINDOW -0.3776

\2-grams:
-1.2553 OPEN DOOR
-0.2553 OPEN WINDOW
-1.2553 CLOSE DOOR
-0.2553 CLOSE WINDOW
-1.2553 DOOR OPEN
-0.2553 WINDOW OPEN
-1.2553 DOOR CLOSE
-0.2553 WINDOW CLOSE
\end\

如果我说“ OPEN”或“ CLOSE”,则结果应为空,但如果我说“ OPEN” +“ WINDOW” /“ DOOR”(以及其他组合),则输出应为2克匹配项

0 个答案:

没有答案