使用NSSpeechRecognizer或替代音频文件而不是麦克风输入?

时间:2009-10-28 12:17:23

标签: cocoa macos audio speech-recognition

是否可以将NSSpeechRecognizer与预先录制的音频文件一起使用而不是直接麦克风输入?

或者是否有其他可用的Objective-C / Cocoa语音到文本框架?

不是在运行应用程序的机器上使用语音,而是可以使用外部设备(例如iPhone)将仅录制的音频流发送到该桌面应用程序。桌面Cocoa应用程序然后将使用分配的命令处理并执行它应该做的任何事情。

感谢。

1 个答案:

答案 0 :(得分:2)

我没有看到以编程方式切换输入的任何明显方法,尽管“语音”伴随指南的“识别语音”部分中的第一段似乎暗示可以使用其他输入。我认为这是通过系统偏好设置来设置的。我猜它使用那里选择的主要音频输入设备。

我怀疑,你正在寻找开放式语音识别,NSSpeechRecognizer不是。如果您正在寻找将任何预先录制的音频转换为文本(即制作录音的副本),那么您对NSSpeechRecognizer完全没有好处,因为您必须给它一系列“命令”来监听。

理论上,你可以把它整个字典喂它,但我认为这不会起作用,因为你通常必须给它清楚,明确的命令。如果你给它分析一些东西(实时),它的性能会受到影响。

您最好的选择是查看第三方开源解决方案。有一些通用的包(没有专门用于Cocoa / Objective-C),但这提出了另一个问题:你在寻找什么样的认可?语音识别的两种主要形式(“训练”对于不同的声音和录音环境更准确但灵活性较差,而“开放”通常不太准确)。

如果您确切地说明了您要完成的任务,那可能是最好的。