您好,我正在使用Performing Streaming Speech Recognition on an Audio Stream上的示例,但不幸的是,它并没有继续进行await streamingCall.WriteAsync
:它一直在运行,但是执行没有继续..等待正在等待某事或也许从未成功。
await streamingCall.WriteAsync(
new StreamingRecognizeRequest()
{
StreamingConfig = new StreamingRecognitionConfig()
{
Config = new RecognitionConfig()
{
Encoding =
RecognitionConfig.Types.AudioEncoding.Linear16,
SampleRateHertz = 16000,
LanguageCode = "en",
},
//InterimResults = true,
}
});
因此,我然后尝试了Performing Synchronous Speech Recognition on a Local File的示例,并且此示例有效。.因此它能够先发送配置文件,然后发送音频文件,最后发送译文。
var response = speech.Recognize(new RecognitionConfig()
{
Encoding = RecognitionConfig.Types.AudioEncoding.Linear16,
SampleRateHertz = 16000,
LanguageCode = 'en',
}, RecognitionAudio.FromFile(@"D:\Projects\GoogleCloudPlatform\SpeechToText\Registrazione.wav"));
这是否有任何错误?我知道这是一个Alpha版本,但在某些情况下我无法发送配置,这确实很奇怪。 你能以某种方式帮助我吗?几天前,我已经为Google支持开了张罚单,但是我还没有得到任何答复。