首先,为了澄清我的目标:我使用 CSCore 库并使用WasapiLoopbackCapture
类捕获背景音频,我打算将其用作实时输入一个System.Speech.Recognition
识别引擎。该类将数据输出到.WAV文件或Stream。然后我尝试这样做:
private void startButton_Click(object sender, EventArgs e)
{
_recognitionEngine.UnloadAllGrammars();
_recognitionEngine.LoadGrammar(new DictationGrammar());
LoadTargetDevice();
StartStreamCapture(); // Here I am starting the capture to _stream (MemoryStream type)
_stream.Position = 0; // Without setting this, I get a stream format exception.
_recognitionEngine.SetInputToWaveStream(_stream);
_recognitionEngine.RecognizeAsync(RecognizeMode.Multiple);
}
结果是我没有获得例外,但我也没有获得SpeechRecognized
或SpeechDetected
个事件。我怀疑这是因为System.Speech.Recognition
程序集不支持实时流。我在网上搜索过,有人报告实施自定义Stream
类型作为解决方法,但我无法按照帖子上的说明进行操作(see Dexter Morgan's reply here)。
我知道这个问题最好通过使用不同的库或替代方法来解决,但我想知道如何专门做这个临时实现,主要是出于知识目的。
谢谢!
答案 0 :(得分:5)
@Justcarty感谢您的澄清,这是我的解释为什么OP的代码不能工作以及为了使其工作需要做些什么。
在C#语音识别和综合中,您可能会对我们有两个语音DLL的文档感到困惑 1. Microsoft Speech DLL(Microsoft.speech.dll) 2.系统语音DLL(System.Speech.Dll)
System.speech dll是Windows操作系统的一部分。这两个库在API几乎相同但不完全相同的意义上是相似的。因此,如果您在线搜索语音示例,那么您可能无法告诉他们是否向System.Speech
或Microsoft.Speech
进行了解释。
因此,对于向C#应用程序添加语音,您需要使用Microsoft.Speech library
,而不是System.Speech library
。
下面总结了一些主要差异
|-------------------------|---------------------|
| Microsoft.Speech.dll | System.Speech.dll |
|-------------------------|---------------------|
|Must install separately | |
| | Part of the OS |
| | (Windows Vista+) |
|-------------------------|---------------------|
|Must construct Grammars | Uses Grammars or |
| free dictation |
| ------------------------|--------------------|
更多阅读Following Article,它解释了实施
的正确方法