问题标签 [azure-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - 如何使用超过 1024 个字符的 Azure 语音服务 (TTS)?
我正在使用 Azure Bing TTS 进行一些数学听写。数字之间有很多停顿。
例如:
它花了我很多<break time="600ms" />
字符。我想超过 1024 个字符的限制,但没有找到任何方法来超过使用 REST API 的 TSS 服务的 1024 个字符的限制。
还有另一种方法吗?也许与另一个 API、服务或客户端库?甚至多付一点钱。
谢谢。
speech-recognition - Azure Speech to Text 在 Android SDK 版本 1.2.2 中 3 到 4 分钟后停止工作
我们在使用语音到文本 API 时遇到问题,它可以正常工作大约 4 分钟,然后突然停止工作。在检查 logcat(Android Studio 错误记录器)时,它显示如下错误。我们将它与订阅密钥一起使用
02-08 03:30:02.434 27572-4854/I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:30:02.844 27572-4865/I/NLPLAT:“hresult”失败,HR=80004005,WebSocket连接失败
..................
...... 02-08 03:30:
11.552
27572-5155/I/NLPLAT: 'hresult'失败,HR=80004005,WebSocket 连接失败
02-08 03 :30:11.552 27572-5155/ I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:29:38.057 27572-8428/ I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:29:38.057 27572-8428/I/NLPLAT:启动 websocket 连接。m_connection=0xbdf1d924 host=websockets.platform.bing.com 端口=443
02-08 03:29:38.060 27572-8430/ I/NLPLAT:WebSocket 意外关闭,状态:0
02-08 03:29:38.062 27572-8430/I/NLPLAT:启动 websocket 连接。m_connection=0xbdf1d924 host=websockets.platform.bing.com 端口=443
02-08 03:29:38.065 27572-8432/ I/NLPLAT:WebSocket 意外关闭,状态:0
任何帮助将不胜感激。
azure - Azure 语音 API 语言
我已经在网页上实现了聊天,可以使用 Azure Speech API 使用 Speech to text。它工作正常,但我不明白我可以在哪里设置 API 理解的语言。我想让它听懂法语,但是当我说法语时,它会用熟悉的声音转录成英语单词。如何/我可以在哪里设置语言?我确切地说我不是在 Azure 仪表板上设置服务的人。
azure - Botframework 模拟器语音语言
我想在 Botframework Emulator 中使用语音到文本。我将“fr-FR”放在“区域设置”字段中,就在我的 microsft 应用程序 ID 和密码之后。文本语音效果很好,但不懂法语。只能说英语。我该怎么做才能让它听懂法语?
azure - Azure Speech to text 演示通过错误。
我试图在运行应用程序后通过错误运行 Azure 语音(此处)。
ConnectionEstablishErrorEvent 和状态码 1006
以下是错误。
为了更好地理解,我将介绍如何运行项目的步骤。
- npm 运行包
- cd 样本/浏览器/
- 回显 YOUR_BING_SPEECH_API_KEY > Speech.key
- npm 安装
- 节点 sample-server.js enableTunnel
步骤 3 到 5 已经在 README 文件中。第 5 步给出运行应用程序的隧道 URL。在单击并上传音频文件后,它会通过 Web 控制台中可见的错误。
azure - 将 Azure 机器人与 Azure 语音服务集成
是否有可能将语音服务与机器人集成?所以我想知道语音服务与机器人集成的过程是什么?
如何通过从创建的 Azure 语音服务获得的密钥与机器人进行集成?以及如何检查创建的语音服务是否正常工作?是否有任何用于测试语音服务的通用门户,例如自定义语音门户(https://westus.cris.ai/Home/CustomSpeech)?
有哪些不同的整合方式?
c# - LUIS: Speech sdk - Github Sample 没有返回意图
我正在尝试使用最新的 SDK 运行示例tutorial-speech-intent-recognition
我能够调用 sdk 并识别语音,但它没有返回正确的意图。相反,它总是进入result.Reason == ResultReason.RecognizedSpeech
但是,当我在测试面板中尝试相同的文本时,它的工作原理。
有人可以帮我理解这里可能出了什么问题。
问候基兰
azure - 使用 Microsoft Speech API 对多种声音进行语音到文本识别?
我想知道Python 上的 Microsoft Speech API 是否支持多种语音识别。我看到了 SDK Speaker Recognition 的测试版,但我想知道这个功能是否已经在 Speech SDK 中。
如果有人需要/尝试过使用 MS Speec 在语音到文本中进行多种语音识别,我已经检查了所有 python SDK 方法文档并在 web 和 stackoverflow 上进行了搜索,但我找不到任何相关信息。
当我使用 Microsoft Speech-to-Text 转录两人对话(女性和男性)的音频时,当语音发生变化时,识别的文本不会被分割。
node.js - 二进制文件到base64 nodejs
当我调用 api tts.speech.microsoft.com 时,我得到一个二进制音频文件,我想将此二进制文件转换为 base64 字符串。
我一直在尝试很多事情,例如:
不起作用。
我不确定“二进制”是否准确,但它不是一种可读的格式。
谢谢您的帮助。
c# - Microsoft 认知语音服务 - 语音转文本批量转录权限错误
你好!
我正在尝试使用 MS 认知服务进行语音到文本的转录。不过,我需要先运行一个示例,然后再将其构建到我的生产应用程序中。所以我正在尝试这个:Git sample
此示例基本上只是要求您填写主机名、订阅密钥和 Azure blob URL。我已经完成了所有这些,并且能够获取 JWT 令牌并读取到目前为止我上传的文件(实际上是 0)。只是当我尝试上传文件进行转录时,它给了我这个回应:
那么,试用用户是否不能使用该服务?
MS 认知服务中是否有支持试用用户的 API,以便我们可以在购买前试用该服务?
我试图浏览他们的文档,但不清楚在这种情况下我可能有哪些选择。
任何帮助将不胜感激。
提前致谢!