我用:
NSArray* initialPhrases = @[@"Let's do lunch.", @"Can we meet tomorrow?", @"When are you free?"];
[self presentTextInputControllerWithSuggestions:initialPhrases
allowedInputMode:WKTextInputModePlain
completion:^(NSArray *results) {
if (results && results.count > 0) {
id aResult = [results objectAtIndex:0];
// Use the string or image.
}
else {
// Nothing was selected.
}
}];
这是Apple提供的文本输入示例。但是,在我的应用程序中,我希望用户只能选择指示文本。如果我将数组设置为nil,那么dictate按钮就不存在,但是如果我单独留下数组,则会再次出现该指令按钮。有什么办法可以通过听写进行文本输入吗?
更新: Apple确实有文档说明如果您直接向用户发送口述,不提供任何回复并直接发送给他们。我认为,当initialPhrases为零时我没有看到任何东西的原因只是由于模拟器限制而导致的错误吗?
答案 0 :(得分:4)
你是对的。论坛上的开发布道者指出,由于缺乏支持,模拟器不会显示任何听写信息。
确保您使用WKTextInputModePlain
且suggestions
数组为nil
,您就可以了。
答案 1 :(得分:0)
从WatchOS 2.1和iOS 9开始,我已经能够以两种不同的方式提出你的建议,如果有效的话,给我一个Green Tick和upvote !!:
选项1 - 记录WAV文件并上传到ASR服务器 我录制并保存了一个WAV文件到苹果手表。之后我将文件上传到付费语音识别提供商,一切正常!下面是用自己的代码来记录,替换UI更新代码行(以及调试代码)的代码:
//RECORD AUDIO SAMPLE
var saveUrl: NSURL? //this var is initialized in the awakeWithContext method//
func recordAudio(){
let duration = NSTimeInterval(5)
let recordOptions =
[WKAudioRecorderControllerOptionsMaximumDurationKey : duration]
// print("Recording to: "+(saveUrl?.description)!)
//CONSTRUCT AUDIO FILE URL
let fileManager = NSFileManager.defaultManager()
let container = fileManager.containerURLForSecurityApplicationGroupIdentifier("group.artivoice.applewatch");
let fileName = "audio.wav"
saveUrl = container?.URLByAppendingPathComponent(fileName)
presentAudioRecorderControllerWithOutputURL(saveUrl!,
preset: .WideBandSpeech,
options: recordOptions,
completion: { saved, error in
if let err = error {
print(err.description)
self.sendMessageToPhone("Recording error: "+err.description)
}
if saved {
self.btnPlay.setEnabled(true)
self.sendMessageToPhone("Audio was saved successfully.")
print("Audio Saved")
self.uploadAudioSample()
}
})
}
选项2 - 使用iWATCH的本地语音识别 在这种方法中,我采用原始的原生语音菜单,但是......!我不添加任何按钮选项,只是纯ASR。我启动了空语音菜单,然后恢复ASR返回的字符串。这是代码,享受:
func launchIWatchVoiceRecognition(){
//you can see the empty array [], add options if it suits you well
self.presentTextInputControllerWithSuggestions([], allowedInputMode: WKTextInputMode.Plain, completion:{(results) -> Void in
let aResult = results?[0] as? String
if(!(aResult == nil)){
print(aResult) //print result
self.sendMessageToPhone("Native ASR says: "+aResult!)
dispatch_async(dispatch_get_main_queue()) {
self.txtWatch.setText(aResult) //show result on UI
}
}//end if
})//end show voice menu
}
选项2很快,但是如果你想要做一些高级语音侦察功能(自定义词汇表,语法......),OPTION 1会更方便。我会为大多数用户推荐OPTION 1。 瞧!如果您需要额外的提示,请告诉我!