我已经开发了Alexa技能,现在正在将其移植到Google行动中。在Alexa技能的中心,我使用AMAZON.SearchQuery插槽类型来捕获自由格式的文本消息。是否有与Google操作类似的实体/参数类型?举例来说,请查看我的Alexa技能的以下互动方式:
Alexa,告诉我的测试应用打个招呼,大家好,我叫Corey
->广告位值=“大家好,我叫科里(Corey)”
Alexa,告诉我的测试应用说我要注销的再见朋友
->广告位值=“我要注销的再见朋友”
答案 0 :(得分:1)
是的,您有一些选择,具体取决于您要在操作中完成的目标。
使用@ sys.any
Dialogflow中最等效的实体类型是内置类型@sys.any
。要使用此功能,您可以创建一个Intent,为其提供示例短语,然后选择任何表示您想要包含在参数中的文本。然后选择@sys.any
实体类型。
然后,看起来像这样。
您可能会想在示例短语中选择 all 文本。不要这样做,因为它会使训练和解析混乱。而是使用...
回退意图
“后备意图”不适用于Alexa。如果没有其他匹配的Intent,则会触发该Intent。 (当您使用上下文时,它还有一些其他功能,但这是另一个主题。)
Fallback Intent会将用户所说的全部内容发送到您的实现Webhook。要创建后备意图,您可以使用提供的默认意图,也可以从意图列表中选择创建按钮旁边的三个点菜单,然后选择“创建后备意图” >
因此,如果您想要的只是用户说的所有文字,那么您可能会想创建一个Fallback Intent。如果是这样,有一种更简单的方法...
使用Action SDK
如果您拥有自己的自然语言处理/理解(NLP / NLU)系统,则不需要Dialogflow。您只希望助手将语音转文本处理的结果发送给您。
您可以使用Action SDK进行此操作。在许多方面,它与ASK和Dialogflow的工作方式相似,但是它具有非常基本的Intent-在大多数情况下,它只会向Webhook发送一个TEXT Intent,其中包含用户所说的内容并让您进行处理。 / p>
答案 1 :(得分:-1)
大多数基于平台的ASR系统主要基于3个主要参数 1.目的-各种逻辑都将在此处编写 2.实体-目的将在其上起作用 3.响应-执行完所有过程后,这就是用户将能够听到的声音。
还有一个重要的参数称为webhook,它用于与外部API交互。
所有平台的基本功能都相同,已经使用了dialogflow(谷歌开发了该平台,甚至支持Alexa的大多数平台),Alexa,Watson(由IBM开发)。
记住一件事,即给出正确的训练阶段的结果非常重要,因为o / p很大程度上取决于样本输入。