我最近开始学习OpenEars语音识别,这很棒!但我还需要支持俄语,法语和德语等其他语言的语音识别和听写。我发现here有各种声学和语言模型。
但我无法理解 - 这是否足以让我在应用程序中集成额外的语言支持?
问题是 - 为了在Open Ears中成功整合(例如俄语),我应该采取哪些步骤?
据我所知 - Open Ears演示中所有英语语言和语言模型都位于 hub4wsj_sc_8k 文件夹中。在voxforge language archives中可以找到相同的文件。所以我只是在演示中替换它们。有一点是不同的 - 在演示英语中,还有一个sendump
2MB大文件,它不在voxforge语言档案中。在Open Ears演示中还有两个其他文件:
这些我改为:
因为.dmp类似于.languagemodel。但应用程序崩溃没有任何错误。
我做错了什么?谢谢。
答案 0 :(得分:10)
根据我的评论,转发回答:
[....]这样的问题的第1步是打开OpenEarsLogging和verbosePocketsphinx,这将为您提供关于出错的非常细粒度的信息(在控制台输出中搜索单词错误和警告以保存时间)。有关这样做的说明可以在文档中找到。随意将问题提交给OpenEars论坛[....]:http://politepix.com/forums/openears您可能还想查看此主题:http://politepix.com/forums/topic/other-languages
解决方案:
为了跟进以后的读者,在打开日志记录后,我们通过使用mixture_weights文件替代sendump并确保语音字典使用声学模型中存在的音素而不是英语来完成此工作。 - 语言音素。
我们可以在此处阅读完成此故障排除的完整讨论:http://www.politepix.com/forums/topic/using-russian-acoustic-model/
更新:由于本周发布了OpenEars 1.5,因此可以将路径传递给任何声学模型作为主要收听方法的参数,并且有一种更标准化的方法可用于打包和参考任何声学模型,因此您可以在同一个应用程序中拥有许多声学模型。这个论坛帖子中的信息取代了我在这个答案中链接的讨论中的信息:http://www.politepix.com/forums/topic/creating-an-acoustic-model-bundle-for-openears-1-5-and-up/由于历史原因,我留下了剩下的答案,因为在讨论中可能还有一些有用的细节,但是可以跳过,以支持新链接。