问题标签 [azure-speech]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
3014 浏览

azure - 如何使用超过 1024 个字符的 Azure 语音服务 (TTS)?

我正在使用 Azure Bing TTS 进行一些数学听写。数字之间有很多停顿。

例如:

它花了我很多<break time="600ms" />字符。我想超过 1024 个字符的限制,但没有找到任何方法来超过使用 REST API 的 TSS 服务的 1024 个字符的限制。

还有另一种方法吗?也许与另一个 API、服务或客户端库?甚至多付一点钱。

谢谢。

0 投票
1 回答
173 浏览

speech-recognition - Azure Speech to Text 在 Android SDK 版本 1.2.2 中 3 到 4 分钟后停止工作

我们在使用语音到文本 API 时遇到问题,它可以正常工作大约 4 分钟,然后突然停止工作。在检查 logcat(Android Studio 错误记录器)时,它显示如下错误。我们将它与订阅密钥一起使用

02-08 03:30:02.434 27572-4854/I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:30:02.844 27572-4865/I/NLPLAT:“hresult”失败,HR=80004005,WebSocket连接失败
..................
...... 02-08 03:30:
11.552
27572-5155/I/NLPLAT: 'hresult'失败,HR=80004005,WebSocket 连接失败
02-08 03 :30:11.552 27572-5155/ I/NLPLAT:WebSocket 意外关闭,状态:0

02-08 03:29:38.057 27572-8428/ I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:29:38.057 27572-8428/I/NLPLAT:启动 websocket 连接。m_connection=0xbdf1d924 host=websockets.platform.bing.com 端口=443
02-08 03:29:38.060 27572-8430/ I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:29:38.062 27572-8430/I/NLPLAT:启动 websocket 连接。m_connection=0xbdf1d924 host=websockets.platform.bing.com 端口=443
02-08 03:29:38.065 27572-8432/ I/NLPLAT:WebSocket 意外关闭,状态:0

任何帮助将不胜感激。

0 投票
2 回答
6405 浏览

azure - Azure 语音 API 语言

我已经在网页上实现了聊天,可以使用 Azure Speech API 使用 Speech to text。它工作正常,但我不明白我可以在哪里设置 API 理解的语言。我想让它听懂法语,但是当我说法语时,它会用熟悉的声音转录成英语单词。如何/我可以在哪里设置语言?我确切地说我不是在 Azure 仪表板上设置服务的人。

0 投票
0 回答
67 浏览

azure - Botframework 模拟器语音语言

我想在 Botframework Emulator 中使用语音到文本。我将“fr-FR”放在“区域设置”字段中,就在我的 microsft 应用程序 ID 和密码之后。文本语音效果很好,但不懂法语。只能说英语。我该怎么做才能让它听懂法语?

0 投票
0 回答
505 浏览

azure - Azure Speech to text 演示通过错误。

我试图在运行应用程序后通过错误运行 Azure 语音(此处)。

ConnectionEstablishErrorEvent 和状态码 1006

以下是错误。

为了更好地理解,我将介绍如何运行项目的步骤。

  1. npm 运行包
  2. cd 样本/浏览器/
  3. 回显 YOUR_BING_SPEECH_API_KEY > Speech.key
  4. npm 安装
  5. 节点 sample-server.js enableTunnel

步骤 3 到 5 已经在 README 文件中。第 5 步给出运行应用程序的隧道 URL。在单击并上传音频文件后,它会通过 Web 控制台中可见的错误。

0 投票
1 回答
175 浏览

azure - 将 Azure 机器人与 Azure 语音服务集成

是否有可能将语音服务与机器人集成?所以我想知道语音服务与机器人集成的过程是什么?

如何通过从创建的 Azure 语音服务获得的密钥与机器人进行集成?以及如何检查创建的语音服务是否正常工作?是否有任何用于测试语音服务的通用门户,例如自定义语音门户(https://westus.cris.ai/Home/CustomSpeech)?

有哪些不同的整合方式?

0 投票
0 回答
77 浏览

c# - LUIS: Speech sdk - Github Sample 没有返回意图

我正在尝试使用最新的 SDK 运行示例tutorial-speech-intent-recognition在此处输入图像描述

我能够调用 sdk 并识别语音,但它没有返回正确的意图。相反,它总是进入result.Reason == ResultReason.RecognizedSpeech

在此处输入图像描述

但是,当我在测试面板中尝试相同的文本时,它的工作原理。

在此处输入图像描述

有人可以帮我理解这里可能出了什么问题。

问候基兰

0 投票
0 回答
288 浏览

azure - 使用 Microsoft Speech API 对多种声音进行语音到文本识别?

我想知道Python 上的 Microsoft Speech API 是否支持多种语音识别。我看到了 SDK Speaker Recognition 的测试版,但我想知道这个功能是否已经在 Speech SDK 中。

如果有人需要/尝试过使用 MS Speec 在语音到文本中进行多种语音识别,我已经检查了所有 python SDK 方法文档并在 web 和 stackoverflow 上进行了搜索,但我找不到任何相关信息。

当我使用 Microsoft Speech-to-Text 转录两人对话(女性和男性)的音频时,当语音发生变化时,识别的文本不会被分割。

0 投票
1 回答
6726 浏览

node.js - 二进制文件到base64 nodejs

当我调用 api tts.speech.microsoft.com 时,我得到一个二进制音频文件,我想将此二进制文件转换为 base64 字符串。

我一直在尝试很多事情,例如:

不起作用。

我不确定“二进制”是否准确,但它不是一种可读的格式。

谢谢您的帮助。

0 投票
2 回答
891 浏览

c# - Microsoft 认知语音服务 - 语音转文本批量转录权限错误

你好!
我正在尝试使用 MS 认知服务进行语音到文本的转录。不过,我需要先运行一个示例,然后再将其构建到我的生产应用程序中。所以我正在尝试这个:Git sample

此示例基本上只是要求您填写主机名、订阅密钥和 Azure blob URL。我已经完成了所有这些,并且能够获取 JWT 令牌并读取到目前为止我上传的文件(实际上是 0)。只是当我尝试上传文件进行转录时,它给了我这个回应:

那么,试用用户是否不能使用该服务?
MS 认知服务中是否有支持试用用户的 API,以便我们可以在购买前试用该服务?
我试图浏览他们的文档,但不清楚在这种情况下我可能有哪些选择。
任何帮助将不胜感激。
提前致谢!