问题标签 [microsoft-speech-platform]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
system.speech.recognition - 锁定计算机会禁用 Windows 8.1 上的语音识别
我在 inproc 模式下SpeechRecognitionEngine
使用命名空间System.Speech
来完成一些自动化工作。语音识别通过 启动RecognizeAsync
。
它工作正常,但是,当计算机被锁定时,语音识别停止。一旦计算机被解锁,识别就会再次激活。虽然这对于大多数应用程序来说可能是一个有意义的行为,但对我来说,这是一个问题。我在网上搜索过,但没有找到禁用此行为的解决方案。
如何将 SpeechRecognition 参数化为在计算机锁定时不停止?
(请注意:该应用程序是传统的 Windows WPF 应用程序,而不是 Windows 应用商店应用程序)
text-to-speech - Microsoft 语音平台:“SPF_NLP_SPEAK_PUNC”不起作用
我正在使用语音平台进行 TTS(文本到语音)。
我想获得带有符号(标点符号)发音的语音输出。
MSDN 说:
http://msdn.microsoft.com/en-us/library/speechplatform_ispvoice_speak.aspx
http://msdn.microsoft.com/en-us/library/speechplatform_speakflags.aspx
所以,我在下面写了代码:
但这并没有按预期工作。这会输出“这是一个句子”的语音,而不是“句号”的发音。
请帮我。
c# - 如何为微软语音识别器创建语言
我正在使用 Microsoft Speech API 在 C# 中开发语音识别应用程序。我需要以下语言的语音识别器:
- 乌兹拉特语-UZ
该语言不存在语音识别语言。所以我想为这种语言创建自己的轻量级语音识别语言。
我怎样才能做到这一点?
grammar - Microsoft 语音识别 - 数字 + 导航
我正在编写一个数据输入程序,该程序主要通过语法 XML 文件使用 C&C,但在某些情况下我需要听写。当我处于 C&C 模式时,除了值列表之外,我还包括导航命令(如 GO UP、GO DOWN 等),识别后执行正确的操作。那里一切都很好。
但是在听写模式下,识别这些“命令”的成功率要低得多(因为没有有限的单词列表)。
问题:
- 我需要使用听写,因为我想输入数字。有没有办法创建一个仅将单词列表限制为数字的 C&C 语法文件?
- 如果有这样的解决方案,我仍然需要包含我的导航词/命令。
- 如果没有这样的解决方案,有没有办法强制听写为引擎听到的某些“单词”分配更高的概率?
c# - Microsoft Speech Platform - 如何在运行时更新规则
我正在使用 System.Speech 构建具有语音识别功能的 C# 应用程序。
我读了这篇文章http://msdn.microsoft.com/en-us/library/jj127913.aspx,其中提到了如何在运行时动态更新规则。
我想知道如何使用 C# System.Speech API 来做同样的事情。你有什么主意吗?
谢谢
c# - 语音识别在此系统上不可用。找不到 SAPI 和语音识别引擎
再会!我尝试使用 Speech SDK 11 将简单的语音写入文本引擎。所以尝试从这个示例执行测试。
所以,我只是创建控制台应用程序并运行代码。(有任务)
但我得到了这个例外:语音识别在这个系统上不可用。找不到 SAPI 和语音识别引擎。我尝试安装 SpeechSDK51,但没有结果。
你能告诉我如何解决这个错误吗?
谢谢!
PS 错误出现在:
c# - 使用微软语音平台SDK v11.0 不能说中文
我只是按照MSDN Installation,安装了“MSSpeech_TTS_zh-CN_HuiHui.msi”和“MSSpeech_SR_zh-CN_TELE.msi”,然后运行Sample,英文语音效果很好,但是当我输入中文时:
它不会说话,有什么建议吗?谢谢!
c# - 语法的语言与语音识别器的语言不匹配
再会!它是关于 Microsoft Server Speech SDK v11.0(服务器版)的。
我在MSDN sample上运行了测试示例。所以英语短语 -red,blue - 被很好地识别。但我也想识别俄语 - 安装 Microsoft Speech Recognition Language -TELE (ru-RU) 并运行我的应用程序/
代码:
此行出现错误:
那么,如何解决这个错误呢?我尝试设置 CultureInfo,但它不起作用...谢谢!
c# - 取消 .Speak with Microsoft.Speech
我有一个将 Microsoft.Speech 用于 TTS 的应用程序。如果流在完成之前得到 d/c'ed,我的 TTS 有问题。
这个 TTS 对象可以在说话完成之前被释放,这会导致 System.IO.EndOfStreamException 和 System.InvalidOperationException: Cannot change synthesizer's output while speak。例外。
我怎样才能取消说话,所以当我的对象被处理时,它会取消说话并正确处理对象?
c# - 语音识别:从 xml 文件读取语法时,Result.Semantic.ContainsKey 始终为 false
我正在研究 Microsoft.Speech 库。它类似于 System.Speech 库。我遇到了一个问题,我认为这可能是一个错误。
我试图用e.Result.Semantic.ContainsKey("DestinationCity")
它来确定它是否有密钥。当我从 GrammarBuilder 加载语法时,我得到一个true
“我想从纽约飞往芝加哥”的提示。然后我将语法写入一个 xml 文件并再次从该文件加载语法。这一次,当我说“我想从纽约飞往芝加哥”时,我得到一个false
. 我不知道为什么会这样。
这是我的代码:
创建的xml文件在这里:
请注意,有“从 xml 加载语法”和“从 GrammarBuilder 加载语法”。您可以将其中任何一个作为评论来查看差异。