我正在使用MCS Speech API在Android智能手机上使用麦克风识别语音。
我有运行micClient和dataClient的示例。
这两个示例都将语音转换为文本,但是当我使用micClient时,语音到文本的转换性能比使用dataClient要好得多。
使用dataClient,我正在从麦克风读取语音数据,PCM格式,16位,每秒16,000个样本,单声道。我正在使用的物理Android手机对于这两个示例都是相同的。
我不确定为什么使用micClient进行文本演示的语音比使用dataClient要好得多。
我想知道在使用micClient时是否对语音数据进行了某种预处理,可能是过滤还是噪音抑制?
谢谢, 百里
答案 0 :(得分:0)
我找到了答案。
当使用带有dataClient的麦克风的原始数据时,由于代码的其他部分的处理时间,我丢失了来自麦克风的音频数据缓冲区。
我重新安排了一些代码,现在按预期工作。
谢谢, 加里。