问题标签 [webspeech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
react-native - 如何在 React Native 中实现 Web Speech API?
简单的问题。我如何在反应原生项目中使用Mozilla 的 Web Speech API ?我可以在 RN 中实现webapp或窗口接口吗?
javascript - Continuous Speech Recognition on browser like "ok google" or "hey siri"
I am doing a POC and my requirement is that I want to implement the feature like OK google
or Hey Siri
on browser.
I am using the Chrome Browser's Web speech api
. The things I noticed that I can't continuous the recognition as it terminates automatically after a certain period of time and I know its relevant because of security concern. I just does another hack like when the SpeechReognition
terminates then on its end
event I further start
the SpeechRecogntion
but it is not the best way to implement such a solution because suppose if I am using the 2 instances of same application on the different browser tab then It doesn't work or may be I am using another application in my browser that uses the speech recognition then both the application doesn't behave the same as expected. I am looking for a best approach to solve this problem.
Thanks in advance.
javascript - 如何让网络语音 api 识别字母、邮政编码和首字母缩略词
我正在尝试让 Web Speech api 识别单个字母,例如邮政编码或车辆登记,例如 MR32BDJ。
有时它会起作用,但有时它会尝试创建一个单词。
有没有办法告诉语音 api 只需要字母和数字而不是单词。我查看了 SpeechGrammarLists 但是找不到足够的信息来确定这是否是正确的方法
javascript - 如何将语音/语言添加到 SpeechSynthesis?
当我speechSynthesis.getVoices()
在 Chrome 中运行时,我会得到一个可能的声音列表。该列表会根据计算机和 Chrome 版本而有所不同。
有什么方法可以扩展支持并添加更多声音?
我觉得这可以通过要求用户下载他们选择的语言的语音文件来完成。这样的文件存在吗?
编辑:
这需要适用于 Windows 和 Mac 计算机。
它还需要简单,因此没有脚本或任何需要广泛技术知识的东西。我希望有一个“下载和安装”类型的东西
android - 在 Android Chrome 中,Web Speech API TTS 无法正常工作 - 未调用边界事件函数
以下代码在 Chrome Android 中使用,但(边界)事件侦听器似乎没有调用 NextWord 函数,而它在 macOS 上的 Chrome 和 Safari 上运行良好:
angular - 这是什么奇怪的接口实现?
这个小代码片段来自一个示例,演示了 Angular 中Web Speech API的使用,它让我很难理解它。
我一直在谷歌上搜索 TypeScript 如何定义和处理接口,但找不到类似样式的语法和解释。
这是我无法解释的最后两行。我当然看到 SpeechRecognition 以某种方式变成了 SpeechRecognition 接口的结果,但我不明白它是如何发生的,我想知道这是否是一个很好的实现,或者有更漂亮的方法来做到这一点。
而且我还想知道,这如何解决 SpeechRecognition 与 webkitSpeechRecognition 的供应商前缀属性问题,因为例如Mozilla 建议对 SpeechRecognition进行一些不同的定义:
javascript - 为什么 JavaScript 回调只有在被记录时才会被调用?
我正在使用 Phaser 框架制作游戏。我正在使用 Web Speech API 将我的文本转换为语音。这是我的代码的一部分:
我编写的使用 Web Speech API 的函数:
使用该函数的代码(在另一个对象中):
我注意到有两件事妨碍了我:
首先,如果我不使用bind
传递给回调的函数Game.speak
,代码会运行,但由于上下文的变化,显然会返回错误。
其次,如果我确实使用该bind
函数,则回调不会运行。
所以我尝试记录回调以确保它在那里,如下所示:
代码运行良好!所以这显然有效,但我想确定原因。为什么我的回调只有在我记录时才被调用?
google-chrome - Chromium 忽略语音识别的语法集
我在 Chromium(Web Speech API的接口)下使用SpeechRecognition ,并有一个用于识别的语法集,在JSGF中定义:
它已成功添加到识别中,所以我会在我说话时只返回三个单词(狗、猫或马)中的一个,但它会继续识别我说的任何内容。
一开始我以为问题出在我的代码上,但后来我发现 Mozilla 做了一个现场演示,说明了 API 的这个用例:你说点什么,如果它是语法中定义的颜色之一,API 会识别它。我认为这就是它应该如何工作的。
但是请查看页面底部的诊断消息:无论您告诉它什么,它都能识别。不仅仅是语法中定义的那些颜色。好像语法根本不存在。
你认为,我应该将其报告为 Chrome/Chromium 的错误吗?如果是,在哪里?还是我误解了它的工作原理?
google-chrome - 如何让 Chrome 的 SpeechSynthesis 离线工作?
我已经参考了以下链接以脱机使用 chrome speechSynthesis,但不知道该怎么做?
Chrome的speechSynthesis不能离线工作吗?
当我执行 speechSynthesis.getVoices() 时,所有声音都具有 localService:false。
我知道必须在本地安装语音合成器,因此我已经为 Ubuntu 14.10 安装了 eSpeak 语音合成器,但不明白接下来要做什么。SpeechSynthesis.getVoices() 仍然获取 localService :false。
知道如何制作 localService :真的吗?
javascript - 如何向 Web Speech API 添加标点符号?
我正在使用Web Speech api,想知道是否有任何关于如何检测或添加标点符号(逗号或句点)的文档。
我的代码目前看起来像这样: