问题标签 [apple-speech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
speech-recognition - iOS 10 的语音识别限制
有谁知道iOS 10(每个设备或每个应用程序)中的语音识别有限制吗?
ios - iOS 10 语音识别“kAFAssistantErrorDomain”错误代码
我在哪里可以找到kAFAssistantErrorDomain
iOS 10 语音识别 API 中不同错误代码的定义?
ios - iOS Speech API 是否支持语法?
我正在研究各种语音识别策略,我喜欢Web Speech 规范中定义的语法概念。似乎如果您可以告诉语音识别服务您期望“是”或“否”,该服务可以更可靠地将“是”识别为“是”,将“否”识别为“否”,并且希望也能够说“这听起来不像那些!”。
但是,在 中SFSpeechRecognitionRequest
,我只看到taskHint
来自SFSpeechRecognitionTaskHint
、confirmation
、dictation
和search
的值unspecified
。
我也看到SFSpeechRecognitionRequest.contextualStrings
了,但它似乎是为了不同的目的。即,我想我应该把品牌/商标类型的东西放在那里。输入“是”和“否”不会使这些词更有可能被选中,因为它们已经存在于系统字典中(这是我根据文档中的少量内容做出的假设)。
API 是否有一种方法可以做更像语法的事情,或者更简单地说,只是提供预期短语的列表,以便语音识别更有可能得出我期望的结果,而不是听起来相似的胡言乱语/同音词?是否contextualStrings
会增加系统选择其中一个字符串而不只是扩展系统字典的可能性?或者,也许我采用了错误的方法,应该自己强制执行语法并枚举,SFSpeechRecognitionResult.transcriptions
直到找到与预期单词匹配的语法?
不幸的是,我自己无法测试这些 API。我只是在研究编写原生 iOS 应用程序的可行性,并没有必要的开发环境。
ios - 如何向 iOS 语音识别 API 提供提示?
我想创建一个使用 iOS 语音 API 接收语音输入的应用程序。在 google 的 API 中,有一个 SpeechContext 选项,我可以为一些不常见的单词提供提示或偏见。
iOS API 是否提供此功能?我已经在该网站上搜索了一段时间,但没有找到任何东西。
ios - 有没有办法在离线模式下使用 iOS 语音识别?
我想知道是否有办法在离线模式下使用 iOS 语音识别。根据文档(https://developer.apple.com/reference/speech),我没有看到任何关于它的信息。
ios - 文字转语音错误,与语音转文字按钮冲突
我正在尝试同时使用 iOS 语音到文本 api 和文本到语音 api。基本上,用户会说话,他们所说的内容将被转录到文本视图中。然后用户将按下一个按钮,该按钮将从文本视图中的转录文本提供文本到语音。我的错误是当用户按下语音到文本按钮时,文本到语音按钮停止工作。但是,如果我根本不按语音到文本按钮并通过键盘在文本视图中输入一些文本,那么文本到语音按钮可以工作。我猜这是语音到文本按钮的问题。我的代码没有任何错误,我对发生的事情感到困惑。
ios - 使用 SFSpeechRecognitionRequest 时使 `contextualStrings` 更有可能
我正在使用 iOS 10 新的语音 API,并且正在设置SFSpeechRecognitionRequest
. contextualStrings
然而,这些词的概率非常低——我猜——所以它们不会被识别。有没有办法让他们更容易被认出?
ios - 苹果语音 api 只能识别很长时间
我正在使用 Apple 语音识别语音一小时,但 Apple 语音仅识别语音一分钟。
我读到我可以提出更多的一个请求来识别语音超过一分钟,但我不知道如何。
这是我的代码
有什么建议或帮助吗?谢谢你。
ios - AVSpeechSynthesizer 可以在后台解决语音识别吗?
不幸的是,我没有找到任何在后台识别用户语音的解决方案,我昨天才读到 AVSpeechSynthesizer。抱歉,我没有阅读太多关于 AVSpeechSynthesizer 的内容,我应该在星期四提交我的项目。真的我需要解决这个问题,所以任何人都知道 AVSpeechSynthesizer 是否可以在我想识别用户语音时帮助我,如果他/她说指定的单词?例如在后台说“你好”。
感谢您的时间。
ios - SFSpeechRecognizer 未授权案例从未进入
我在这里遵循一个简单的教程来让 iOS 语音识别工作。
即使用户拒绝麦克风访问,当我在模拟器中运行它时,它总是进入授权情况并打印出authorized,即使在用户在提示中选择 Allow 之前也是如此。我askSpeechPermission
的从来没有被调用过。我该如何解决?