我的用例如下: 用户正在驾驶或者他/她以某种方式无法使用他/她的手使用智能手机。他/她可以执行的所有操作如下: “嘿,古乐,”
我看过Google I / O '18视频,他们在其中演示了App Actions(here演示文稿的可读版本)。基本上应该创建一个action.xml文件,在其中创建语义意图和android意图之间的映射。因此,当用户说出“魔术词”(语义意图)时,将调用正确的(android)意图来满足请求。
我的问题是:
注意: 要获取广播内容,我使用第三方库
答案 0 :(得分:1)
不幸的是,第三方开发人员目前无法直接调用Google助手(“嘿,谷歌,玩Toto来玩非洲”)。
但是,您可以使用explicit invocation触发Google Assistant动作,然后可以将HTTP请求发送到可以与您的Android应用程序进行通信的REST API。
用户可以在调用结束时添加一个调用短语,该短语将直接将其带到他们请求的Google> Dialogflow> Firebase函数上,例如: