问题标签 [nsspeechrecognizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - (Android Studio Speech Recognizer) 我收到错误 9 (insufficient Privileges) 即使我给了它 RECORD_AUDIO 和 INTERNET
我的 Android 清单文件看起来像:
我的日志显示它由于 onError() 函数中生成的错误 9 而停止。
我正在尝试运行此示例程序以尝试熟悉语音识别器软件。
这可能是由于我在 android studio 而不是真实设备上运行它而引起的问题吗?我很坚持这一点。
java - 语音识别器 | 什么都没说之后发生了什么(什么都没有发生)?
我在谷歌上找不到答案,或者我没有得到正确的词。
所以 SpeechRecognizer 工作正常。但是当我听到哔哔声(我在没有谷歌对话框的情况下使用它)并且我没有说大约 3 秒或更长时间时,它就像识别器什么都不做并逐渐消失,没有听到第二次哔哔声,没有 onResult(),没有 EndofSpeech。
那么当识别器在听而你什么也没说时发生了什么?哪种方法会被解雇?
编辑:毕竟它有效,非常感谢 OpiateFuchs 和他非常好的评论和答案。我以这种方式编辑简化的代码,你们可以看到如何制作它。
即使你什么也没说,onPartialResult() 也经常被调用,但是当这种情况发生时,partialResult 字符串是空的,所以如果它是空的,你就知道什么都没说。(来自 OpiateFuchs 的想法)
这就是我的简化代码,这对识别器很重要:
swift - 在 OS X 上使用 GPU 进行语音 NSSpeechSynthesis 和 NSSpeechRecogniers
我刚刚做了一个有趣的测试,运行语音识别器服务并使用 NSSpeechSynthesis 来回显我使用 NSSpeechSynthesizer 所说的话。
但是,NSSpeechSynthesizer 因速度慢和反应迟钝而臭名昭著,我想知道是否有人尝试通过指定核心、线程或 GPU(使用金属)来处理识别和合成来优化这一点。
我一直在检查以下文章,以通过金属缓冲区更好地了解流水线值:http: //memkite.com/blog/2014/12/30/example-of-sharing-memory-between-gpu-and-cpu- with-swift-and-metal-for-ios8/
作者使用 Metal 来卸载 ML 中使用的 sigmoid 函数,这完全有意义,因为矢量数学是 GPU 最擅长的。
但是,我想知道是否有人探索过发送其他类型数据的可能性,从波形或其他(通过 GPU 渲染合成)中浮动值。
特别是,有没有人为 NSSpeechRecogniser 或 NSSpeechSynthesizer 尝试过这个?
现在,我有一个带有 3D HRTF 声音的完整 3D 场景,并且识别和合成都可以工作,但有时会有明显的滞后,所以也许通过 GPU MTLDevice 专用一个缓冲管道然后再返回播放文件可能有效?
swift - OSX Sierra Nsspeechrecognizer 问题
我不会用一堆代码让你厌烦,我会在下面总结一下。
在应用程序委托中,我创建了一个 nsspeechrecognizer 设置它的委托,添加命令,然后开始监听。
语音识别器第一次识别命令并继续,只要我不阻止它听。
一旦我通过调用 stoplistening 来停止语音识别器,就会进行后续调用以开始侦听,但不会再次识别以前识别器的命令。
我已经确认命令数组保持不变。这是一种“每个命令都工作一次”类型的东西。
再次识别命令的唯一方法是终止语音识别器核心代理进程。重新启动我的应用程序不会这样做。
这不是 el cap 的问题。有任何人在 Sierra 遇到过这样的怪事。
在 didrecognize 命令委托中
另一个方法调用再次开始侦听。并且命令在startlistening被调用后才被识别......除了已经识别的命令。
这是在 Sierra 机器上的 Xcode 8 上使用 swift 2.3 编译的
macos - NSSpeechRecognition 对 macOS 语音识别没有响应
我是这里的菜鸟,所以我可能会遗漏一些基本的东西。在下面找到我的代码,我似乎无法弄清楚为什么没有调用语音识别功能。麦克风处于活动状态,字典已填充,但未进行识别。有人可以帮帮我吗。
控制台转储以这种方式出现,有人可以解释这意味着什么以及如何理解它们。