问题标签 [microsoft-speech-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
speech-to-text - 使用 Microsoft Azure (REST API) 进行批量转录
我想使用 Microsoft 的 REST API 转录更长的音频文件(至少 5 分钟)。有很多不同的产品和名称,例如语音服务 API 或必应语音 API。到目前为止,我尝试的所有 REST API 都不支持转录更长的音频文件。
文档指出有一个 REST API 正好适用于这种情况: https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/batch-transcription
该服务的端点是什么?
azure - 将 Azure 机器人与 Azure 语音服务集成
是否有可能将语音服务与机器人集成?所以我想知道语音服务与机器人集成的过程是什么?
如何通过从创建的 Azure 语音服务获得的密钥与机器人进行集成?以及如何检查创建的语音服务是否正常工作?是否有任何用于测试语音服务的通用门户,例如自定义语音门户(https://westus.cris.ai/Home/CustomSpeech)?
有哪些不同的整合方式?
microsoft-cognitive - 认知服务语音 SDK 是否在非 ubuntu linux 中工作?如果是这样,所需的依赖项是什么?
作为主题,我尝试按照快速入门指南在非 ubuntu linux 中运行语音 api(见下文),但我想知道是否有人让它工作或者它只是不受支持
但我得到了以下异常。
最初在 Ubuntu linux 中发生了类似的事情,但在我按照微软文档中的建议安装 libasound2 后解决了。
这让我想也许我错过了一些依赖项,但我无法弄清楚我从错误消息中究竟错过了什么。
python - 不能 pip microsoft azure-cognitiveservices-speech?
按照此处的指南安装 microsoft azure text to Speech SDK:https ://docs.microsoft.com/en-us/azure/cognitive-services/speech-service/quickstart-python#install-the-speech-sdk
它说要运行
pip install azure-cognitiveservices-speech
,但不幸的是这又回来了
找不到满足要求 azure->cognitiveservices-speech 的版本(来自版本:)没有为 >azure-cognitiveservices-speech 找到匹配的分布
我尝试使用 ==1.2.0 在末尾添加版本号,并添加 --pre。所以:
python -m pip install azure-cognitiveservices-speech --pre
python -m pip install azure-cognitiveservices-speech==1.2.0
.
我能够使用python -m pip install azure
它,它下载了一大堆模块,但不是认知服务模块。我在 python 2.7 和 python 3.7 上试过,我还安装了Microsoft Visual C++ Redistributable for Visual Studio 2017。如果有人对如何安装此模块有任何想法,将不胜感激。
这是 pypi 链接:https ://pypi.org/project/azure-cognitiveservices-speech/
c# - System.Speech.Synthesis 和 Microsoft.Speech.Synthesis 有什么区别?
我目前正在用 C# 开发一个实现 Text-To-Speech 的小程序。但是,我发现可以使用两个命名空间:
- 系统.语音.综合
- Microsoft.Speech.Synthesis
我用谷歌搜索了差异,发现这篇关于语音识别的帖子。它并没有真正回答我的问题。我也在他们两个之间切换,没有任何区别。它适用于代码中的所有语言(如下)。
有人可以解释一下他们两个之间的区别吗?
text-to-speech - Microsoft 语音合成,SpeakSsmlAsync 没有语言属性
我正在使用 Microsoft Speech Synthesis 来播放我的 SSML 字符串, public Prompt SpeakSsmlAsync(string ssmlText);
并且我有一个不应该使用的要求,xml:lang
但是当我从字符串中删除 xml:lang 属性时,ssml
我遇到了异常
'speak' 需要属性 'xml:lang'
xml:lang
那么有没有一种方法可以让我在不使用属性的情况下播放我的 SSML 字符串并让语音引擎处理它?
我想玩但失败了:
使用 lang 属性:
提前致谢。
xaml - Microsoft.CognitiveServices.Speech.Core.dll 未找到异常
我正在使用.Net 标准 2.0上的 microsoft azure 的认知服务开发混合 xamarin 表单应用程序。获得CognitiveServices 0.1.0、Microsoft.CognitiveServices.Speech 1.3.1和Xamarin.Forms 3.5.0的 nuget 包。
Nuget 包已更新到最新版本。我在 VS2017 IDE 的 Win 7 机器上运行它。找不到任何资源来解决我的异常。DllNotFoundException
该解决方案成功构建,但在Microsoft.CognitiveServices.Speech.core.dll中的 genymotion 模拟器上运行时失败。
windows - 为 Windows 10 实施 TTS 服务
我正在开展一个研究项目,在该项目中我们创建了一个新的文本到语音 (TTS) 引擎,将文本转换为语音。由于引擎已经表现良好,我们尝试使其可供大量应用程序使用,这使我们希望引擎在 Windows 10 上显示为 TTS 语音。
在 Microsoft 的开发人员文档中,我发现的只是有关如何在我的应用程序中使用现有/已安装的声音的信息。但是,我没有找到任何关于如何实现语音以使其显示为 Windows 语音并且可以被任何使用 Speech SDK 或 SAPI 的应用程序使用的信息。
为了让我们的新 TTS 引擎与 Windows Speech 一起工作,我必须实现哪个接口或必须连接到哪个 API?
我已经爬取了 Microsoft Speech SDK 的文档以及https://docs.microsoft.com/en-us/dotnet/api/system.speech.synthesis.ttsengine等开发人员网站
microsoft-cognitive - 请求更高的语音转文本并发性
我是 Across Cultures 的开发人员 - 我们为学校的学习者提供在线 EAL(英语作为附加语言)支持。
我一直在查看您的语音服务 API 并且有一些东西可以满足我们的要求,但是我们需要支持 20 多个与 API 的并发连接 - 目前我们正在经历多达 100 多个并发用户。
你能告诉我是否可以增加并发连接,它如何影响价格,是否可以自动扩展或者我们需要提前指定数量吗?
谢谢,
西蒙