问题标签 [sfspeechrecognizer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
10328 浏览

ios - iOS 10.0 语音识别错误 kAFAssistantErrorDomain

我尝试使用如下语音识别

结果为零,我调试并看到如下错误

Error Domain=kAFAssistantErrorDomain Code=1101 "(null)"

你有什么主意吗?

0 投票
1 回答
961 浏览

ios10 - Info.plist 中的 SFSpeechRecognizer 授权密钥

什么是密钥名称,我需要添加Info.plist以显示语音识别授权请求?

0 投票
1 回答
325 浏览

speech - iOS10:语音识别器不准确

SFSpeechRecognizer不准确。我添加了上下文字符串。但没有帮助。didFinishRecognition被叫也很慢。didHypothesizeTranscription将返回不准确的文本。Siri 文字是准确的。请帮助。我无法使用语音转文字。

0 投票
0 回答
941 浏览

ios - 语音框架 iOS 10:识别字母,而不是单词

新的语音框架很棒。但是,我正在寻找一种识别口语字母的方法,而不仅仅是单词。Apple TV 这样做是为了输入 用户名和密码。

如果您在演讲前加上关键字“大写”,iOS 听写会识别单个字母。这也适用于语音,但我需要一个“永远在线”的解决方案。

关于如何使用语音做到这一点的任何建议?

0 投票
1 回答
301 浏览

ios - 带有今日扩展的 AVAudioEngine

您好,我想将 Speech 框架添加到 iOS 10 Today Extension。

我尝试使用 SpeakToMe 示例https://developer.apple.com/library/content/samplecode/SpeakToMe/Introduction/Intro.html使用 AVAudioEngine录制音频。

但是当我尝试启动音频引擎时出现异常

如果我使用没有扩展的普通视图控制器,来自苹果的示例代码可以正常工作。有谁知道这个的解决方法?

0 投票
0 回答
853 浏览

speech-recognition - SFSpeechRecognitionTask - “使用未声明的内置类型”错误

在与SFSpeechRecognizer我合作时遇到这个问题:

打印error.some.instance_type的描述:表达式产生错误:错误:/var/folders/k8/ppsgsylx27b5061mkcw9c7n40000gn/T/./lldb/4446/expr7.swift:1:65:错误:使用未声明的类型'Builtin' Swift ._DebuggerSupport.stringForPrintObject(Swift.UnsafePointer(bitPattern: 0x101b94360)!.pointee)

这里的“内置”是什么?错误发生在以下块中。

真正的问题会是什么?

[客户端] {"msg":"Fence: onClientEventRegionState, 无效状态", "regionState":"0"}

这是我关注的文章。有什么提示吗?

0 投票
3 回答
9672 浏览

ios - 语音识别在 iOS 上出现错误

我正在研究iOS上的语音识别,但是每次我调用方法 [_recognitionRequest endAudio] ,它总是在recognitionTaskWithRequest中出错:消息在底部。

}

[实用工具] +[AFAggregator logDictationFailedWithError:] 错误域=kAFAssistantErrorDomain 代码=203 "重试" UserInfo={NSLocalizedDescription=重试, NSUnderlyingError=0x17424c690 {错误域=SiriSpeechErrorDomain 代码=1 "(null)"}}

0 投票
1 回答
1011 浏览

ios - SFSpeechRecognizer 没有正确处理上下文字符串

SFSpeechRecognizer对于我的用例来说非常不准确。我尝试设置contextual字符串,因为我有一组要匹配的单词。但它仍然无法这样做。我需要任何其他配置吗?

我正在使用 Apple 提供的示例项目,只有以下更改:

0 投票
5 回答
9037 浏览

ios - AVSpeechSynthesizer 使用 SFSpeechRecognizer 后不说话

所以我构建了一个简单的应用程序,它使用 SFSpeechRecognizer 进行语音识别,并在屏幕上的 UITextView 中将转换后的语音显示为文本。现在我正试图让手机说出显示的​​文字。由于某种原因它不起作用。AVSpeechSynthesizer 语音功能仅在使用 SFSpeechRecognizer 之前有效。例如,当应用程序启动时,它会在 UITextView 中显示一些欢迎文字,如果我点击说话按钮,手机会说出欢迎文字。然后,如果我录制(用于语音识别),识别出的语音将显示在 UITextView 中。现在我想让手机说出那个文本,但不幸的是它没有。

这是代码

0 投票
1 回答
2618 浏览

ios - SFSpeechRecognizer 可以识别几个命令词而不是整个短语?

我从 Apple 的示例应用程序 https://developer.apple.com/library/content/samplecode/SpeakToMe/Introduction/Intro.html设置了 SFSpeechRecognizer

我想知道是否有可能让识别器识别与其他先前识别的单词无关的单个单词。

例如,识别器现在会在说出“滚动”时尝试形成一个句子,然后找到有意义的单词的最佳转录,因此当说出“停止”时,它会将其更改为类似于“向下”的内容在前一个单词的上下文中更有意义。

但这不是我想要的,因为我希望我的应用程序听听单个单词作为在听时调用函数的命令。

有没有办法以这样的方式实现框架,它会不断地听单词并且只捕获单个单词?