有没有办法使用自己的语音识别引擎与android.speech模块?

时间:2018-03-27 06:45:42

标签: android speech-recognition

我已经实施了自己的演示语音识别服务。我将它部署在服务器上。现在,我可以使用API​​( http://192.168.1.100/ASR/demoSpeechToText )访问该服务。我将 wav 格式的音频文件和语言参数传递给API。 API工作正常。

我想将它与Android应用程序集成。我将其实现为来自应用程序的简单API调用,该调用将在录制语音样本后调用。

我想进一步探索检查将其与 android.speech 模块(https://developer.android.com/reference/android/speech/package-summary.html)集成的可能性。

所以我的问题是,有什么方法可以从 audio.speech 模块扩展一些类,并编写我自己的类来调用我的语音识别API而不是默认一个?我看过这个:https://developer.android.com/reference/android/speech/SpeechRecognizer.html,但不知道是否可以使用我自己的API。

1 个答案:

答案 0 :(得分:0)

RecognitionService的非常小的扩展名是例如https://github.com/Kaljurand/speechdemo1(只显示哪些类需要扩展,实际上不进行任何记录/识别),更完整的类是https://github.com/Kaljurand/K6nele(记录音频并将其流式传输到现有的云服务,但不支持wav文件。)

相关问题