Watson 对话服务无法识别我的口音。因此,我使用了自定义模型,以下是使用自定义模型之前和之后的结果。
试验结果
在整合模型之前:- 当你有他们的座右铭时。希拉。贾巴在其中。女人。这。
整合模型后:- 我们给 Omatta David。斯里兰卡。贾巴在其中。数字。州长
实际音频- Audio 49,Wijayaba Mawatha,Kalubowila,Dehiwela,Sri Lanka.Government.Gov.
我如何包含自定义模型-我使用了从 github 分叉的演示中给出的相同文件 在 socket.js 中,我包含了自定义 id,如图所示。还有其他包含自定义模型的方法(集成自定义模型的方法)但我想知道我所做的方法是否正确?
这是我用来创建自定义模型的 python 代码。代码链接
这是我以 JSON 格式执行 python 代码后的语料库结果。语料库文件
这是自定义模型(包含在代码中的自定义模型文本文件),其中包含了所有斯里兰卡道路。
我分叉了文件并编辑了socket.js,如下所示。