使用原始麦克风数据的Speech API micClient与dataClient

时间:2017-03-18 20:40:08

标签: android speech-recognition microsoft-cognitive

我正在使用MCS Speech API在Android智能手机上使用麦克风识别语音。

我有运行micClient和dataClient的示例。

这两个示例都将语音转换为文本,但是当我使用micClient时,语音到文本的转换性能比使用dataClient要好得多。

使用dataClient,我正在从麦克风读取语音数据,PCM格式,16位,每秒16,000个样本,单声道。我正在使用的物理Android手机对于这两个示例都是相同的。

我不确定为什么使用micClient进行文本演示的语音比使用dataClient要好得多。

我想知道在使用micClient时是否对语音数据进行了某种预处理,可能是过滤还是噪音抑制?

谢谢, 百里

1 个答案:

答案 0 :(得分:0)

我找到了答案。

当使用带有dataClient的麦克风的原始数据时,由于代码的其他部分的处理时间,我丢失了来自麦克风的音频数据缓冲区。

我重新安排了一些代码,现在按预期工作。

谢谢, 加里。