问题标签 [webspeech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-chrome - Web Speech API 语法是否向开发人员公开?
我目前正在做一些关于 Webkit 语音识别的 RnD,我想创建一个特定于应用程序的语法文件。根据 W3C 定义,我编写了以下代码。但它似乎并没有显示出对这些词的识别改进的结果。你能提供一些帮助吗?
var 识别 = 新 webkitSpeechRecognition(); 识别.grammars.addFromUri("voice/api_grammar/weight.grxml");
语法文件是一个简单的文件,如下所示。
ios - 使用 Google Voice Recognition API 构建 iOS 应用程序
我正在开发一个具有语音识别功能的 iOS 应用程序。我找到了使用 Google Web Speech API 进行语音识别和文本转语音的方法。它工作正常。我想知道在 iOS 应用程序中使用 Google Web Speech API 是否合法?此 API 是否有任何使用限制?我试图找到它的任何服务条款,但找不到任何服务条款。
html - x-webkit-speech API 或 Npt 需要许可证吗?
我想通过谷歌的 x-webkit-speech API 在我的网站中集成语音搜索。语音搜索将由网站上的公众使用。我需要谷歌的许可吗?我在哪里可以查看使用此 API 的条款和条件?
javascript - 将一个 div 的结果复制到 textarea-div
我正在开发一个系统,该系统应该可以选择使用 Webspeech API 通过语音进行控制。我的问题或疑问是:如何将语音识别的结果(存储在“transcript-div”中)复制到“usercomment textarea-div”。就像用户说了什么一样,识别的字符串应该自动复制到用户评论中。
对应的代码行:
语音识别器:
出于调试目的,我创建了另一个 div,它显示了识别的短语。这是有效的!
现在应该将“transcript-Div”的内容复制到 usercomment -textarea-Div:
我试图通过以下功能做到这一点:
fillUsercomment 函数有效(当我手动调用该函数时,它会将内容粘贴到用户注释文本区域。但是我必须如何更改代码,以便在文本区域中即时粘贴识别的输出?
谢谢!
dom-events - 获取语音合成中的语音列表(Web Speech API)
以下 HTML 在第一次单击时在控制台中显示空数组:
在第二次单击中,您将获得预期的列表。
如果你添加onload
事件来调用这个函数(<body onload="test()">
),那么你可以在第一次点击时得到正确的结果。请注意,第一次调用onload
仍然无法正常工作。它在页面加载时返回空,但之后工作。
问题:
由于它可能是测试版中的一个错误,我放弃了“为什么”的问题。
现在,问题是您是否想window.speechSynthesis
在页面加载时访问:
- 解决这个问题的最佳方法是什么?
- 您如何确保它会
speechSynthesis
在页面加载时加载?
背景和测试:
我正在测试 Web Speech API 中的新功能,然后在我的代码中遇到了这个问题:
我的问题是:为什么在加载页面并触发函数window.speechSynthesis.getVoices()
后返回空数组?onready
如您所见,如果您单击链接,相同的函数会通过触发器返回一组可用的 Chromeonclick
语音?
页面加载后似乎 Chrome 加载window.speechSynthesis
了!
问题不在ready
事件中。如果我var voice=...
从ready
函数中删除该行,首先单击它会在控制台中显示空列表。但第二次点击工作正常。
第一次通话后似乎window.speechSynthesis
需要更多时间来加载。你需要调用它两次!而且,您需要等待并让它在第二次调用之前加载window.speechSynthesis
。例如,如果您第一次运行以下代码,控制台中会显示两个空数组:
google-chrome - 将 SSML 与 Web Speech API 一起使用的正确方法
text属性
此属性指定要为该话语合成和说出的文本。这可以是纯文本或完整的、格式良好的 SSML 文档。对于不支持 SSML 或仅支持某些标签的语音合成引擎,用户代理或语音引擎必须去除它们不支持的标签并说出文本。
它没有提供使用text
SSML 文档的示例。
我在 Chrome 33 中尝试了以下操作:
它不起作用——声音试图讲述 XML 标签。此代码有效吗?
我必须提供一个XMLDocument
对象吗?
我试图了解 Chrome 是否违反规范(应报告为错误),或者我的代码是否无效。
node.js - 如何在 node、js 的帮助下实现一个简单的谷歌网络语音 api
我正在寻找一个逐步的过程。或有助于实施的良好文档。到目前为止,我在 github 中找到了这个 repo。但我不明白这有什么帮助https://www.npmjs.org/package/google-speech-api
google-chrome - 如何在移动 chrome 上使用网络语音 api
网络语音 API 目前在 Chrome 中工作,但我无法在 iPhone 上的移动 chrome 中工作。我无法在网上找到任何信息,关于是否有办法在移动设备上访问 API,或者它是否适用于 Android 版 Chrome。
javascript - 测试用户的麦克风使用权限状态
在创建实例后了解用户是否允许麦克风访问的最佳方法是什么webkitSpeechRecognition
?
我想到的第一个想法是使用该webkitSpeechRecognition:onstart
方法更新本地状态引用:
但这似乎是多余的,因为浏览器可能已经设置了全局只读值。
有什么想法吗?
html - HTML5 中的 Web Speech API 支持哪些语言?
我想看看网络语音 API 支持哪些语言,并尝试贡献和添加其他语言。