通用问题涉及在OSX上进行iOS API调用(可能涉及正在运行的模拟器),但是我将从自己的观点出发进行介绍。
在OSX上听写(由于受伤我必须这样做)经常没有反应,挂了好几秒钟。
如此之多,以至于我什至在我的.bash_profile
中加入了一个脚本来杀死服务:
# can pass foo or 'foo|bar|quux'
function kill_process_or_processes() {
PROCESS_ID="$( ps -A | grep -E $1 | grep -v 'grep' | awk '{print $1;}' )"
if [ -n "$PROCESS_ID" ]; then
kill -9 $PROCESS_ID
echo 1
else
echo 0
fi
}
function ks() { # kill speech recognition processes
while [ $(kill_process_or_processes 'speechrecognitiond|corespeechd') -eq 1 ]; do
sleep .5
echo Tick
done
echo BOOM!
}
我每天必须使用12次以上。
但是,我发现iPhone的听写性能远胜于MacBook Pro。
谷歌搜索,我发现:
https://developer.apple.com/documentation/speech?language=objc#topics
对实时或预先录制的音频执行语音识别,并接收转录,替代解释和结果的置信度。
iOS> = 10.0
只要我能在OSX上使用此API。
从理论上讲,我认为我应该能够在桌面上运行iPhone模拟器,并且只需通过本地以太网套接字传递呼叫即可。
但是任何人都可以看到一个(更清洁的)路径吗?