我正在尝试使用Google云语音API,在我的Angular FrontEnd中录制音频,将其转换为base64,然后将其发送到我的Node后端,后端执行google语音API查询。
到目前为止,我没有成功,谷歌只发给我空的结果。
你会看到,为了识别问题,我正在循环遍历所有可能的sampleRate和音频格式。
需要注意的另一件事是使用Google示例audio.raw(在此处https://github.com/googleapis/nodejs-speech/tree/master/samples进行测试)进行测试,它可以正常工作,并且我会获得转录。
这是我的前端:
const onSuccess = stream => {
var options = {
audioBitsPerSecond: 16000, // NB: I have tried several bitrates, and several audio formats (here, and in the blob creation)
// mimeType: 'audio/ogg; codecs=opus'
}
this.mediaRecorder = new MediaRecorder(stream);
this.mediaRecorder.onstop = e => {
const audio = new Audio();
const blob = new Blob(this.chunks, { 'type': 'audio/wav' });
this.chunks.length = 0;
audio.src = window.URL.createObjectURL(blob);
var reader = new FileReader();
reader.readAsDataURL(blob);
reader.onloadend = (function () {
var base64data = reader.result;
var splited = base64data.substr(base64data.indexOf(',') + 1);
this.appservice.postAudio(splited).subscribe(res => {
console.log("MyBuffer: ", res);
})
}).bind(this);
audio.load();
audio.play();
};
this.mediaRecorder.ondataavailable = e => this.chunks.push(e.data);
};
我的Node后端
post(req, res) {
var encoding = ["FLAC", "LINEAR16", "MULAW", "AMR", "AMR_WB", "OGG_OPUS", "SPEEX_WITH_HEADER_BYTE"];
var sampleRate = ["8000", "12000", "16000", "24000", "44100", "48000"];
encoding.forEach(elementencoding => {
sampleRate.forEach(elementrate => {
const projectId = 'myId';
const request = {
"config": {
"encoding": elementencoding,
"sampleRateHertz": elementrate,
"languageCode": "fr-FR"
},
"audio": {
"content": req.body.base64audio
}
};
const client = new speech.SpeechClient({
projectId: projectId,
});
// Detects speech in the audio file
client
.recognize(request)
.then(data => {
console.log("raw data:" + elementencoding + " - " + elementrate + " => ", data[0].results);
const response = data[0];
const transcription = response.results
.map(result => result.alternatives[0].transcript)
.join('\n');
})
.catch(err => {
console.error('ERROR:' + elementencoding + ' - ' + elementrate);
});
});
});
}
这是我得到的输出
ERROR:OGG_OPUS - 44100
ERROR:OGG_OPUS - 24000
ERROR:AMR_WB - 44100
ERROR:SPEEX_WITH_HEADER_BYTE - 24000
ERROR:OGG_OPUS - 8000
raw data:LINEAR16 - 48000 => []
raw data:LINEAR16 - 44100 => []
raw data:LINEAR16 - 12000 => []
raw data:LINEAR16 - 16000 => []
ERROR:SPEEX_WITH_HEADER_BYTE - 48000
ERROR:AMR_WB - 48000
ERROR:AMR - 24000
ERROR:OGG_OPUS - 12000
ERROR:AMR - 44100
ERROR:SPEEX_WITH_HEADER_BYTE - 8000
ERROR:SPEEX_WITH_HEADER_BYTE - 12000
ERROR:AMR_WB - 8000
ERROR:AMR_WB - 24000
ERROR:OGG_OPUS - 48000
raw data:LINEAR16 - 8000 => []
raw data:LINEAR16 - 24000 => []
raw data:MULAW - 48000 => []
ERROR:AMR - 48000
ERROR:AMR - 12000
ERROR:AMR - 16000
raw data:FLAC - 24000 => []
感谢任何能够对此有所了解的人。
答案 0 :(得分:4)
由于Google示例中的audio.raw有效,因此问题很可能与您正在使用的音频有关。 Speech API对它接受的音频有点挑剔。 (仅限单声道,请参阅this article)。您所看到的问题在语音API的troubleshooting section中有所描述,其中说明了为什么您可以获得空响应。
我在这里测试了mozdevs MediaRecorder示例来创建一个音频文件并将其传递给Speech API,看起来API真的不喜欢MediaRecorder创建的格式。
您必须将音频转换为类似FLAC或LINEAR16的内容才能获得Speech API来解释它。做了一些挖掘我发现this github example,并将结果音频传递给Speech API,我从API中获得了正确的记录。