如何使用Android的Google Cloud语音API?

时间:2017-01-12 07:39:04

标签: android speech-recognition speech-to-text google-speech-api

我有一个大学项目,我正在开发一个像翻译一样的Android应用程序。对于普通文本翻译,我使用的是Google Cloud Translation API,我看到他们可以选择使用Google Cloud语音API通过语音翻译文本。问题是我没有起点,我不明白我该如何使用它。

那么,是否有一个示例说明如何从我的Android应用程序中使用Google Cloud语音API?

3 个答案:

答案 0 :(得分:3)

Android运行Java示例就好了。您可以在github上找到它们。

您也可以免费使用Android Speech API,与Google Cloud Speech API不同。

答案 1 :(得分:1)

是的,有可能,我已经完成了,基于谷歌"演讲"内部示例" android-docs-samples-master" (谷歌并下载这些样本)。 你需要知道的事情:

  1. 您需要设置免费的Google Cloud帐户并激活 计费。布告? WTF我需要支付吗?坚持,稍等!!!继续读我的 答案!!
  2. 每个月的语音识别时间的前60分钟 FREE。
  3. 设置结算并获取PREF_ACCESS_TOKEN_VALUE 您需要添加到SpeechRecognizer类所需的值 耐心,记住。您还需要获取身份验证json 来自谷歌并将其添加到" res - >生"你项目的文件夹。
  4. 语音演示不适合快速连续的ASR 请求,因为关闭语音识别服务需要2-6 秒(我正在研究这个)。
  5. 更新:如果你有这个工作,你可能已经注意到第3次或第4次你做ASR,它失败了。这是因为示例代码不是为了正确关闭和打开整个ASR识别器而设计的。我得到了它的工作,如果您需要有关特定错误的帮助,请告诉我。 这是一份摘要指南,如果您需要有关特定步骤的详细信息,请告诉我。

答案 2 :(得分:0)

不过,Android Speech API和Google Cloud Speech API之间存在一些关键区别。尽管Android Speech API是免费的,但仅限于短短语,并且无法处理文件中的音频。每次语音识别也都以独特的蜂鸣声开始和结束,因此用户会意识到麦克风处于监听模式-一种Google方式,可以防止编写欺骗性应用,当语音识别器在后台运行并将抄本发送到后端服务器。这些限制已针对Google Cloud Speech解除,但与Android的集成几乎不存在。虽然有一个Android演示项目,但要使其适应您的应用并非易事,并且将面临多种挑战和错误解决方案。以下是Google在其website上的声明:

  

注意:Cloud Java客户端库当前不支持Android。