除非我做了一些非常愚蠢的事情,否则看起来我只使用Actions SDK和Node.js在我的Action on Google中有一个入口点。
因此,我必须通过使用.indexOf()
的某些关键字然后调用相应的函数来计算用户所说的内容。
我认为这也会更简单,我可以用一些方法来定义一个动作,并且谷歌会足够聪明地完成所有工作,即使用户说的内容略有不同。
我想我做错了/不同的事情之一,就是有一个欢迎的意图,基本上有一个对话,并问你想做什么?"然后用户回应,然后我必须弄清楚所说的内容,然后采取适当的行动。
这似乎很长。有更好的方法吗?
答案 0 :(得分:4)
更好的方式"是使用专为此设计的工具,并具有与之相关的强大而灵活的自然语言处理引擎。动作直接支持Dialogflow和Converse.AI,大多数其他NLP引擎应该能够提供有关它们如何与Actions一起使用的信息。
例如,Dialogflow允许您指定一些符合Intent的示例短语,然后使用"类似的"你所指定的短语。您的Node.js webhook被告知调用了哪个Intent,以及您为该Intent指定了哪些参数,您可以直接根据该信息采取行动。
此时,Actions SDK主要用作这些和其他NLP引擎构建的基础。