在OSX Mavericks中,语音听写现已包含在内,非常有用。我正在尝试使用听写功能来创建我自己的数字生活助手,但我找不到如何使用识别功能来在应用程序而不是文本框中获取语音。
我已经研究过NSSpeechRecognizer,但这似乎是为了使用预定义的语法而不是听写来编写可说出的命令。我使用的编程语言并不重要,但Python或Java会很好......
感谢您的帮助!
答案 0 :(得分:2)
您可以使用SFSpeechRecognizer(mirror)(需要macOS 10.15 +):用于语音识别。
对现场或预先录制的音频执行语音识别,接收转录,替代解释以及结果的置信度。
正如您在问题NSSpeechRecognizer(mirror中所指出的那样,确实提供了一种“命令和控制”风格的语音识别系统(命令短语必须在收听之前定义,与之相反)识别文本不受约束的听写系统。
来自https://developer.apple.com/videos/play/wwdc2019/256/(mirror):
另一种方法是直接使用Mac Dictation,但据我所知,唯一的方法是重新定向音频源,这不是很整齐,例如参见http://www.showcasemarketing.com/ideablog/transcribe-mp3-audio-to-text-mac-os/(mirror)。