问题标签 [sfspeechrecognizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 在哪里可以找到 iOS 上 kAFAssistantErrorDomain 错误的错误代码?
这些错误会在 iOS 语音识别中返回。
但是网络上的任何地方似乎都没有错误代码列表。有谁知道他们在哪里?
ios - 从 SFSpeechRecognizer 获取语音幅度
我使用这个库https://github.com/appcoda/SpeechToTextDemo将语音转录为文本
我想用这个库https://github.com/alankarmisra/SwiftSiriWaveformView用真实的语音幅度来显示语音图
我不知道如何从第一个库中获取此值
ios - 使用 SFSpeechRecognitionRequest 时使 `contextualStrings` 更有可能
我正在使用 iOS 10 新的语音 API,并且正在设置SFSpeechRecognitionRequest
. contextualStrings
然而,这些词的概率非常低——我猜——所以它们不会被识别。有没有办法让他们更容易被认出?
ios - 在 AVSpeechUtterance 之后使用 SFSpeechRecognizer 时出现 AVAudioSession 问题
在通过 AVSpeechUtterance 向用户发表欢迎信息后,我尝试使用 SFSpeechRecognizer 进行语音转文本。但是随机地,语音识别没有启动(在说出欢迎信息之后),它会抛出下面的错误信息。
[avas] 错误:AVAudioSession.mm:1049:-[AVAudioSession setActive:withOptions:error:]:停用具有运行 I/O 的音频会话。在停用音频会话之前,应停止或暂停所有 I/O。
它工作了几次。我不清楚为什么它不能始终如一地工作。
我尝试了其他 SO 帖子中提到的解决方案,其中提到检查是否有音频播放器正在运行。我将语音检查添加到代码的文本部分。它返回 false(即没有其他音频播放器正在运行)但文本语音仍然没有开始收听用户语音。你能指导我出什么问题吗?
正在运行 iOS 10.3 的 iPhone 6 上进行测试
以下是使用的代码片段:
文字转语音:
语音转文本:
关于添加的日志,我能够看到所有日志,直到打印“Step7”。
在调试设备中的代码时,它始终在以下行触发中断(我设置了异常断点),但继续继续执行。然而,在少数成功的执行过程中也会以同样的方式发生。
AVAudioFormat *recordingFormat = [self.audioEngine.inputNode outputFormatForBus:0];
[self.audioEngine 准备];
ios - iOS 10:SFSpeechRecognizer 和 Twilio TVILocalAudioTrack
我正在使用 Swift 开发一个 iOS 应用程序,它试图转录对话。我成功地使用AVAudioEngine() 和 SFSpeechRecognizer()转录对话。
现在我想尝试把它带到视频聊天中。因此,我按照在 github 上找到的 Twilio 快速入门进行了适当的设置(我使用了 CallKit 版本,这并不重要)。但是,我在 Twilio 视频通话期间可用的音轨不是 AVAudioEngine 音轨,而是 TVILocalAudioTrack。这是 Twilio SDK 的特定类型。
TVILocalAudioTrack的文档在这里,但我不知道如何将其插入 SFSpeechRecognizer。
可能的替代方案
当有人在 Twilio 房间时启动 AVAudioEngine() (我认为我不能按照 Twilio 的 SDK) - 如果有人对此有建议,那就太好了。
也许 Swift 对这个项目来说还不够好?哎呀!
ios - iOS:使用 SFSpeechRecognizer 录制后,AVSpeechSynthesizer 不起作用
我正在制作一个执行文本到语音和语音到文本的应用程序。
我现在遇到的问题是文本转语音使用 AVSpeechSynthesizer 可以正常工作。但是在我使用 SFSpeechRecognizer 录制并进行语音到文本之后,文本到语音停止工作(即不回话)。
我也是新来的。但是我从几个不同的教程中得到了这段代码,并试图将它们合并在一起。
这是我的代码:
ios - 当应用程序进入后台语音识别不起作用
我正在使用SFSpeechRecognition
语音到文本,当应用程序在前台时它可以正常工作,但是当应用程序进入后台时,需要的应用程序继续录制。
.plist
我厌倦了文件中所有必需的背景设置
请建议我该怎么做?
ios - 如何强制 iOS Speech API 只读数字并将“一”识别为“1”
我想使用iOS Speech API来识别数学表达式。它适用于诸如two plus four times three
- 将其读取为2+4*3
,但是当我以 1 开始表达式时,它总是将其读取为“一”。当“一”在表达式的中间时,它按预期工作。
我发现当我将SFSpeechAudioBufferRecognitionRequest
属性设置taskHint
为.search
显示实时结果时,它首先将 1 正确识别为“1”,但最后将其更改为“One”
有没有办法将其配置为仅识别数字?或者只是强制将“一”读为“1”?或者修复它的唯一方法是自己格式化结果字符串?
ios - iOS 应用程序上的 SFSpeechRecognizer(Siri 转录)超时错误
在我的 iOS 应用程序中,我正在尝试使用 iOS 10 的最新功能 Speech API 转录预先录制的音频。
包括文档在内的多个来源都指出,语音 API(更具体地说是 SFSpeechRecognizer)的音频持续时间限制为 1 分钟。
在我的代码中,我发现任何长度约为 15 秒或更长的音频文件都会出现以下错误。
错误域=kAFAssistantErrorDomain 代码=203“SessionId=com.siri.cortex.ace.speech.session.event.SpeechSessionId@50a8e246,消息=在 30000 毫秒后等待命令超时”UserInfo={NSLocalizedDescription=SessionId=com.siri.cortex .ace.speech.session.event.SpeechSessionId@50a8e246, Message=Timeout waiting for command after 30000 ms, NSUnderlyingError=0x170248c40 {Error Domain=SiriSpeechErrorDomain Code=100 "(null)"}}
我在整个互联网上进行了搜索,但无法找到解决此问题的方法。也有人遇到同样的问题。有些人怀疑这是 Nuance 的问题。
还值得注意的是,我确实从转录过程中获得了部分结果。
这是我的 iOS 应用程序的代码。` // 创建一个语音识别器请求对象。让 srRequest = SFSpeechURLRecognitionRequest(url: location) srRequest.shouldReportPartialResults = false
感谢您的帮助。