我们正在为盲人和视障用户开发应用。我们一直在尝试使用第三方库来获取语音用户输入并将其转换为文本,然后我们将其解析为控制应用程序的命令。问题是单词识别不是很好,当然也没有iOS用于在文本字段上输入语音的好处。
我想尝试一下,但我们的用户大多无法点击文本字段,然后点击弹出键盘上的麦克风按钮,然后点击完成按钮甚至关闭任何一个。我甚至不确定他们如何处理整个屏幕上的单击,对某些人来说可能太难了。所以,我想为他们自动化,但我没有在文档中看到任何表明它是可能的。那么,它是否可能,如果是这样,那么通过验证的正确方法是什么?
答案 0 :(得分:2)
您的解决方案是实施关键字定位,以便使用关键字而不是按钮点按来激活语音识别。之后,您可以记录命令/文本,并使用您需要的任何服务识别它们。像摩托罗拉X上的“Ok google”激活。
iOS有几个关键字激活库,一个可能的解决方案是基于开源语音识别库CMUSphinx的OpenEars。如果你想直接使用Pocketsphinx,你可以在subversion(branches / kws)的kws分支中找到关键字激活实现
答案 1 :(得分:1)
获得iOS听写的唯一方法是通过Nuance注册自己:http://dragonmobile.nuancemobiledeveloper.com/ - 它很贵,因为它是最好的。据推测,Apple的合同使他们无法公开API。
内置的iOS辅助功能允许固定用户通过VoiceOver和Assistive Touch等工具访问听写(和其他键盘按钮)。如果您的用户可能熟悉这些工具,则可能不值得重新发明。