问题标签 [google-speech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - C# 代码中的 Google Speech Api
我正在用 C# 开发语音识别应用程序。我想为此目的使用谷歌语音 api。我正在为这种情况开发应用程序例如:我:我需要你的帮助我的电脑?应用:你需要我什么类型的帮助。
我从谷歌云平台生成密钥--> API ID 管理器--> 凭证。我从这里获取代码如何在 c# 中使用谷歌语音识别 api?
帮我看看如何解决这个问题?
node.js - 谷歌语音识别 api v2 中期结果
我一直在使用节点 js npm google-speech-api https://www.npmjs.com/package/google-speech-api研究谷歌语音识别 API v2 它正在工作,但我需要获得“临时结果” .
我怎样才能得到正在处理的音频的中间结果。我在网上搜索过,但无法找到有用的信息并使其发挥作用。
以下是我目前正在处理的代码:
google-speech-api - Google Speech API 如何获取我的 asyncrecognize 请求的结果
我执行了以下
返回
我尝试使用此处提供的交互式 GET ` 传入上面的名称值,(大约 12 小时后),
但回来了
我错过了什么吗?比如,如何正确执行此操作,或者我的语音识别响应?它在云端的某个地方吗?
audio - Google Cloud Speech API 可以识别哪些音频文件类型?
我正在尝试使用 Google 的 Cloud Speech API。这里有文档和代码示例:
如果我将示例代码指向包含的文件 audio.raw,而不是简短的 .wav 文件,我可以让示例代码正常运行。
我不知道音频样本文件是什么格式:
我的 .wav 文件可能有 10 秒的音频,我得到一个空的结果。
我知道这个答案。
之前有人问过我的问题,但没有答案。
我无法想象我必须正确获取音频文件的属性才能使其正常工作。我假设一个常见的用例,我的,是有人录制会议,不知道录制的参数,只想要一个文本文件。
php - 从 Google Chrome 录制音频并发送到 Cloud Speech API
我已使用我的 API 密钥成功地将 RAW 音频文件发送到 Google 的 Cloud Speech API。现在,我想使用 Chrome 的浏览器录制我的声音并发送,而不是“audio.raw”(就像在 Google.com 上一样)。我猜它应该是一个 HTML5 脚本。
这是我到目前为止所做的:
python - 为什么 Google Speech Recognition API 只返回前 2-3 秒转换后的音频文本
我在 Google Cloud Console 中创建了一个项目,并在该项目中启用了 Google Speech API,并创建了凭据。还用了谷歌推荐的transcribe.py,
https://cloud.google.com/speech/docs/samples
https://github.com/GoogleCloudPlatform/python-docs-samples/tree/master/speech
我可以将它与 Google 生成的 API 密钥一起使用,可以成功地将音频文件(30 秒)翻译成文本,但不完全,只有前 2-3 秒。我的帐户现在是免费试用的,所以我怀疑是不是因为我的帐户类型(免费试用)。
来自谷歌的回应就像 {"results": [{"alternatives": [{"confidence": 0.89569235, "transcript": "我在森林里野餐了,我要回家了,所以跟我来吧" }]}]}
音频文件是格式为 wav 文件(由 ffprobe 打印) Stream #0:0: Audio: pcm_s16le ([1][0][0][0] / 0x0001), 16000 Hz, 1 channels, s16, 256 kb/ s
音频文件已上传到谷歌驱动器,链接在这里 https://drive.google.com/file/d/0B3koIsnLksOLQXhvQ1ljS0dDXzg/view?usp=sharing
有人知道上述过程/步骤有什么问题吗?或者这是错误谷歌语音识别api?
java - 带有 MRCP 的 Google Speech API
是否有人知道如何将 Google Speech API 作为 ASR 与其他 IVR 系统(例如 Avaya、Genesis 等)集成。这些 IVR/VXML 系统通常使用 MRCP 协议与 ASR 集成。
google-speech-api - 如何使用 StreamingRecognize 超过 1 分钟?
我对使用 Google 语音 API 很陌生。我的应用程序要求我连续流式传输音频请求以进行语音识别。连续使用1分钟以上。但是,根据使用限制,服务会在 60 秒后停止。有没有办法解决这个问题?
任何帮助是极大的赞赏。
谢谢
google-cloud-platform - Google Cloud Speech API 失败并出现 503
我开发了一个使用 Google Cloud Speech API 和 Vision API 的 node.js 应用程序。我为此使用了 gcloud npm 包。我使用服务帐户连接到 api。当我在本地运行它时,一切正常。但是当我在 Microsoft Azure 中托管它时,Google Speech API 失败并显示 503 Service Unavailable。Vision API 工作正常,但 Speech API 失败。有人可以说为什么会这样吗?
我使用以下代码
这就是打印在日志中的内容
c# - 谷歌云流语音 API
我需要通过 Google Cloud Speech API 进行实时语音识别。但是它仍然是测试版,互联网上没有太多有用的东西。
https://cloud.google.com/speech/docs/samples此处可用的示例很少,但我没有看到带有 C# 的流式 API,这是否意味着我不能使用 C# 将我的音频输入流式传输到 Google Cloud Speech API?
有人尝试过使用 .NET 将音频输入流式传输到 Cloud Speech API 吗?
仅供参考,我无法使用 Google 提供的普通 Web Speech API。我只需要使用 Goolge Cloud Speech API。