我正在使用RASA NLU制作语音助手,稍后将在android / IOS移动应用程序中部署它。我目前有一个python程序,在其中调用RASA NLU模型并使用Interpreter类解析传入的输入。
interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)
我得到的答案存储在一个JSON对象中,在该对象中我对此进行解析以获得意图和相关实体。稍后,我将获得此输出并使用AIML解释器来获取相应的响应。我将所有响应存储在AIML文件中。
我的问题是,所有这些代码现在都在我的计算机上本地运行。我想将我的RASA NLU模型加载到服务器上,然后使用某种API从模型中请求响应并将其发送到AIML内核(也存储在服务器上)。该模型应始终在服务器上运行,并且我将从移动应用程序发送请求。有什么建议吗?
我建议您首先在服务器上进行Rasa X部署,如rasa.com文档中所述。
一旦完成该工作,然后创建一个符合Rasa Open Source HTTP-API的自定义连接器。