问题标签 [bing-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - 使用 httr 将 curl 命令转换为 R(特别是 '--data-binary @')
我正在尝试使用 bing 语音到文本将一些声音文件转录为文本。
以下命令在命令行中工作(在 Windows 10 上使用 git bash):
我试过这个,但它不起作用:
它返回此输出:响应
我相信该请求与 .wav 文件的解释有关,并且我需要以某种方式将“--data-binary”标签添加到 httr-request 中。我可以看到我的“内容类型”是纯文本,尽管我已经指定了。此外:API 文档指定我需要在我的 wav 文件前面加上一个 at 符号。
任何帮助将非常感激。
干杯。
编辑:链接到 API 文档 https://docs.microsoft.com/da-dk/azure/cognitive-services/speech/getstarted/getstartedrest?tabs=curl#tabpanel_AFC9x30-dR_curl
microsoft-cognitive - 发送到 Bing Speeh to Text API 的最大音频文件长度(持续时间)应该是多少?
我已经提到了这个文档。他们在使用客户端库进行语音转文本时提到了“长音频流(长达 10 分钟)”。
语音转文本是否接受大于 10 分钟的音频文件?如果我们通过音频文件 > 10 分钟会发生什么?
在我的用例中,我需要传递超过 30 分钟的音频文件。那么对于这些情况我们该怎么办呢?
c# - 使用 Xamarin 和 Microsoft Speech Service API 执行实时连续语音识别
我在 Bing Speech API 的文档中看到,可以将录音麦克风输入流式传输到 REST 服务(https://docs.microsoft.com/en-us/azure/cognitive-services/speech/home):
实时连续识别。语音识别API使用户能够实时将音频转录成文本,并支持接收目前已识别的单词的中间结果。
但是,我找不到显示如何使用 Xamarin Forms 以跨平台方式实现此目的的示例。
但是在这种情况下,发送到 API 的音频流是一个已经存在的音频文件,但是我想要实现的是流式传输运行应用程序的设备的麦克风输入(Android、iOS、UWP)。
任何见解将不胜感激。
speech-recognition - 如何在 bot 中更改 bing 语音的语言
我在 botframeowrk 中使用 bing 语音,如下所示:
我想将语言从“en-us”更改为其他语言,是否有任何我应该添加的选项,例如 lang:'it-it'。
还有一种方法可以根据用户说的语言更改语言吗?
botframework - Botframework 中使用 Bing 语音支持的浏览器
我在 botframework 中使用 Bing 进行语音,当我部署它时,麦克风仅在 Chrome 和 Edge 中启用,我读到其他浏览器也支持它?
botframework - 在 Bot Framework 中没有使用 Bing Speech 的“Access-Control-Allow-Origin”标头
我正在使用 Bot Framework 在 Chatbot 中使用 Bing Speech,它运行良好,但今天出现此错误:
“ https://speech.platform.bing.com/synthesize:对预检请求的响应未通过访问控制检查:请求的资源上不存在“Access-Control-Allow-Origin”标头。来源“ https:// /xxxxxxx.azurewebsites.net '因此不允许访问。"
这是平台内的错误吗?如果是,您知道这是否会经常发生吗?或者这个错误是由其他原因引起的?
javascript - Bing Text-to-Speech 可以采用 javascript 变量值并将其转换为语音吗?
我在 javascript 中使用 Bing 文本到语音 api 并生成随机数以进行加法。只是为了获得支持,我想将 bing 文本转语音集成到我的代码中,但我无法在 microsoft 页面上找到说明您可以将动态参数传递给 api 的文档。到目前为止,它能够做到这一点:
但是当我这样做时,它会给出类型错误:
有没有办法将变量传递给 bing tts api 或者我应该使用 google tts。
为了避免 api 调用,我使用了 javascript 客户端库github 链接
botframework - SIP 或 SIPREC 集成
我需要将来自 SIP 或 SIPREC 会话的语音集成到 Micorsoft Speech 或 MS Bot。根据https://docs.microsofttranslator.com/speech-translate.html,语音应该是单通道流式传输,以 16 kHz 采样的签名 16 位 PCM 音频。因此,似乎还需要将这些数据包从任何编解码器“翻译”为 PCM。什么是推荐的方法?
c# - Bing Speech to Text bot 的 Skype 音频
我有一个 Azure 机器人,它能够获取 wav 音频文件并使用 Bing Speech API 翻译成文本。我正在尝试将其连接到 Skype。我不知道如何从附件中获取流。我的代码的第一部分找到了 ContentType='audio' ok 的 Skype 附件:
但后来我尝试使用下面的代码(取自 Microsoft BotBuilder 示例的 Controller\MessagesController.cs 文件:https ://github.com/Microsoft/BotBuilder-Samples/tree/master/CSharp/intelligence- SpeechToText)来获得一个流:
这失败了,我想是因为我无法访问该网址。有没有人举例说明如何获取 Skype 音频流或知道我应该怎么做?
ContentUrl 的格式为:https://smba.trafficmanager.net/apis/v3/attachments/LONG_ID_GOES_HERE/views/original。我从 httpClient.GetStreamAsync 请求返回的错误是“响应状态代码不指示成功:401(未授权)。”
谢谢
javascript - 必应语音 API 不会向聊天机器人讲述长文本
我使用 Microsoft QnA Maker 服务和 Azure 上托管的 Azure Web App 机器人创建了一个网络聊天机器人。我在 Azure 上为我的机器人启用了 Web 聊天和 Direct Line 频道。它工作正常。现在我正在尝试集成 Bing Speech API 以进行语音识别。下面是代码-
图书馆:
在 JavaScript 中创建 Web 应用程序机器人:
当我在 Chrome 或 Edge 上运行此程序时,我可以单击麦克风并说话,然后我会得到响应(基于 QnA 制造商中的 Key-Answer 映射)以文本和语音的形式返回。问题是,如果答案太长(如 600 个字符),我只能得到文本作为响应,但没有声音。
对此有什么帮助吗?如果我可以提供更多详细信息,请告诉我。