我从valgrind article concerning debugging of memory problems获取了以下示例代码(recogn.js)(需要使用https://github.com/GoogleCloudPlatform/nodejs-docs-samples/tree/master/speech进行身份验证):
@AfterMapping
protected void mapUrl(B b, @MappingTarget A a) {
//You will do your logic here
}
我运行它:节点recogn.js listen
该示例首先起作用。我对着麦克风说话,它记录了我对控制台的说法。问题是,如果我静音几秒钟,它就会停止收听/识别/打印。我一直在浏览各种文件,我无法弄清楚原因。
答案 0 :(得分:0)
我不是100%肯定,但听起来可能有多种解释:
请求是要求“单一话语”(StreamingRecognitionConfig)
这似乎不寻常,因为默认似乎是false
。但是,在请求(const request = { singleUtterance: false, config: {...} }
)
您正在运行客户端定义的超时(createRecognizeStream)。
这也似乎有点奇怪,因为我猜你没有坐在那里说话60秒,然后在这么长时间后停止。
您的麦克风正在关闭将传播回语音客户端的流。
这看起来似乎有点合理,但我并非100%自信。
如果您可以将您所说的内容录制到麦克风中,并使用通过createRecognizeStream
方法发送的文件(而不是实时音频流)重现此问题,则会删除最后一项,并将其制作更容易诊断。