问题标签 [google-cloud-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Java 测试用例的 Cloud Speech API 示例引发异常:原因:java.net.UnknownHostException:accounts.google.com
我正在尝试使用 Google Cloud Speech api 来识别语音,遵循示例代码
https://github.com/GoogleCloudPlatform/java-docs-samples/tree/master/speech/grpc
我已按照说明创建了此处提到的凭据(服务帐户密钥),还创建了计费帐户。
当我执行mvn clean install
命令时,它开始运行测试用例;我收到以下错误:
你能帮我理解发生了什么吗?
java - 将 Google Cloud Speech API 与 Android 集成
我正在尝试使用服务帐户的私有 .json 密钥获取凭据,它总是在这里抛出 GeneralSecurityException。
我在 android 上执行此操作,在阅读论坛后,您的项目中的 fromStream 和其他依赖项似乎存在问题(https://github.com/google/google-api-java-client/issues/979) -有人有什么建议吗?
electron - 谷歌云语音在电子包中不起作用
当我使用 npm start 命令从命令提示符运行应用程序时,它运行良好。它从语音 api 返回结果。
我正在使用 binaryServer 和 binaryclient 将音频流式传输到谷歌云 API。
当我为电子应用程序创建包时,一切正常,但它没有从语音 api 返回结果。
这是我的代码片段:Package.json
这是我的 main.js
这是我的二进制服务器
谢谢你的帮助
speech-recognition - 如何在python中使用谷歌云语音api
我正在用 python 探索谷歌云语音 api。我正在关注这个链接。我也提到了这个stackoverflow链接。但是我被设置环境变量所震惊。
我做过的事情:
1.安装gcloud python模块
2.安装google-api-python-client模块
3.已设置服务账号(获取JSON文件)
4.获得API KEY
我对导出 GOOGLE_APPLICATION_CREDENTIALS 和 GCLOUD_PROJECT 环境变量感到震惊。
我的疑问是:
1.他们应该使用google cloud sdk导出吗?如果是,google cloud sdk在这里扮演什么角色,我们什么时候应该使用这个sdk?
2.由于我没有在代码中明确包含API密钥,是否意味着我的身份验证是在线自动验证的?在这种情况下,我在下面的代码中的get_speech_service()函数是做什么的?
下面是代码
我用谷歌搜索了很多次,我得到了提到的 stackoverflow 链接,它澄清了一些事情。由于我不清楚我在此处发布的上述疑问。
php - 对于超过 1 分钟的音频,Google Cloud Speech API 不返回任何内容
短于 1 分钟的音频文件可以毫无问题地转录,但是当我尝试转录较长的文件时,Google Speech API 返回一个空响应。
我使用以下 SoX 命令制作我的 .wav 文件:
该文件按预期播放。运行 SoXi,我得到以下信息:
然后我将它上传到我的 Google 存储,因为文档指出任何大于 1 分钟的文件都必须驻留在 gs 存储桶中,以便 API 转录它。
然后我运行以下代码开始转录操作:
返回的响应是空的。完整的响应如下所示:
表示请求已成功运行并完成,但没有任何实际响应。我哪里错了?
python - Python:如何使用 pyaudio for Google Cloud Speech API 获取原始音频文件
我在linux上使用下面链接中给出的程序。
我面临的问题是如何使用 pyaudio 获取我自己的由麦克风录制的原始音频文件,以使用上述程序获取我录制的内容的文本。
我有以下 pyaudio 程序,但它给了我 wav 文件。但我想为谷歌云语音 api 保存原始音频文件。我不想将 wav 转换为原始音频文件。我直接想使用 pyaudio 保存原始音频文件。
java - Google Speech API 返回 PERMISSION_DENIED 请求无法被客户端项目识别
所以我修改了Google Speech API
示例代码(之前也没有工作)以与他们的更新通知(关于 中的弃用ClientAuthenticator
)相提并论,并得到与以前相同的错误但没有解决方案,主机是speech.googleapis.com/v1beta1/speech:asyncrecognize?key=My_Key
我的代码如下:
但它只是返回一个
欢迎任何帮助或建议,谢谢!
raspbian - Google Cloud Speech API 无法在 Raspberry Pi 3 Raspbian OS 的命令行中进行身份验证
我正在使用 gcloud SDK 在 Raspberry Pi 3 Raspbian OS 上测试 Google Cloud Speech API 命令行。Google 提供的标准程序在我的 Mac OSX 上运行!在 Raspbian 中尝试它失败了。
我尝试设置 ENV 变量,如“GOOGLE_APPLICATION_CREDENTIALS”和“GCLOUD_PROJECT”,当这不起作用时,我取消设置这些变量并尝试运行“gcloud beta init”而不是“gcloud init”。没有这些作品的组合。
命令:
(注意:'sync-request.json' 的内容,请参阅快速入门指南示例)。
我收到的错误消息如下所示。似乎选择了错误的项目:
输出:
android - Android 的 STT 是否基于与 Google Cloud Speech API 相同的技术?
鉴于它们都是 Google 的一部分, Android SpeechRecognizer和Google Cloud Speech API有什么区别?他们是否使用相同的技术/模型?有没有人审查过性能差异?
speech-recognition - 谷歌云语音:区分声音?
我有兴趣编写一个能够识别多个说话者的语音识别应用程序。例如,如果 Bill、Joe 和 Jane 在说话,那么应用程序不仅可以将声音识别为文本,还可以按说话者(比如 0、1 和 2...人们)。
我正在寻找可以做到这一点的语音识别 API,而 Google Cloud Speech 是排名最高的 API。我查看了 API 文档以查看此类功能是否可用,但尚未找到。
我的问题是:这个功能是否存在?
注意:谷歌的支持页面说他们的工程师有时会在 SO 上回答这些问题,所以似乎有人可能会回答问题的“意志”部分。