我想将应用部署到 Google 助理。但是,我想使用不同的 AI 后端而不是 api.ai。
有谁知道这是否可能?如何?
或者如果我想使用 Google 助理,我会坚持使用 api.ai 吗?
谢谢
我想将应用部署到 Google 助理。但是,我想使用不同的 AI 后端而不是 api.ai。
有谁知道这是否可能?如何?
或者如果我想使用 Google 助理,我会坚持使用 api.ai 吗?
谢谢
您实际上可以在后端使用任何东西,从简单的字符串匹配方法到另一个 NLU(wit.ai、luis.ai、Amazon Lex、Rasa 等)。
但是,如果您不使用 Google 支持的任何软件,则必须编写软件来连接 Google Actions SDK 和您的其他对话平台。
就像 Prisoner 说的那样,您几乎必须在此处详细说明自己的操作包:https ://developers.google.com/actions/sdk/
如果你在做一个简单的字符串匹配方法,ActionsSDK 可以自己做非常基本的意图匹配和实体识别,而不需要额外的处理,但是对于更复杂的事情,你需要一个合适的 NLU。
如果您将输入文本转发到另一个服务,您可以简单地使用 TEXT 标准意图 (actions.intent.TEXT),获取原始文本并将其转发到您的履行服务器。从那里,您可以使用 NLU 处理文本,并构建响应以发送回 ActionsSDK。您几乎可以忽略有关 ActionsSDK 的所有其他内容。
最后一件事:如果您的后端已经在使用 Node.js,您可以采取一些捷径并使用Node.js 客户端库围绕您的后端构建一个包装器,否则,您将不得不从头开始实现该接口。
祝你好运!
我使用开源框架来完成 NLU 部分。如果您想将操作 sdk 与 api.ai 以外的其他 NLU 解决方案结合使用,请注意您无法控制 Google 为您提供的语音文本。我不确定 API.ai 是否允许自定义语法文件,或者利用开发人员的意图/实体来协助转录,但动作 sdk 不允许。
我认为这是 Alexa 和 Google Assistant 之间的一个很大区别,因为使用 Alexa,您可以提供带有预期实体的话语,我猜这最终会提高语音到文本的准确性。
你可以使用任何你想要的自然语言处理系统。API.AI 通过 Actions on Google 提供了相当完整的支持,但它不是唯一的。
如果您想推出自己的(或使用尚不直接支持 Actions 的),您可以配置一个 JSON操作包来描述您的操作的意图和响应。