在OSX上使用iOS(语音识别)API

时间:2019-01-24 08:58:48

标签: ios macos api ios-simulator

通用问题涉及在OSX上进行iOS API调用(可能涉及正在运行的模拟器),但是我将从自己的观点出发进行介绍。

在OSX上听写(由于受伤我必须这样做)经常没有反应,挂了好几秒钟。

如此之多,以至于我什至在我的.bash_profile中加入了一个脚本来杀死服务:

# can pass foo or 'foo|bar|quux'
function kill_process_or_processes() {
  PROCESS_ID="$( ps -A | grep -E $1 | grep -v 'grep' | awk '{print $1;}' )"
  if [ -n "$PROCESS_ID" ]; then
    kill -9 $PROCESS_ID
    echo 1
  else
    echo 0
  fi
}

function ks() {  # kill speech recognition processes
  while [ $(kill_process_or_processes 'speechrecognitiond|corespeechd') -eq 1 ]; do
    sleep .5
    echo Tick
  done
  echo BOOM!
}

我每天必须使用12次以上。

但是,我发现iPhone的听写性能远胜于MacBook Pro。

谷歌搜索,我发现:

https://developer.apple.com/documentation/speech?language=objc#topics

  

对实时或预先录制的音频执行语音识别,并接收转录,替代解释和结果的置信度。

     

iOS> = 10.0

只要我能在OSX上使用此API。

从理论上讲,我认为我应该能够在桌面上运行iPhone模拟器,并且只需通过本地以太网套接字传递呼叫即可。

但是任何人都可以看到一个(更清洁的)路径吗?

0 个答案:

没有答案