问题标签 [sfspeechrecognizer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
1183 浏览

swift - 点击 UITextView 时允许操作

我希望能够在我的 Swift iOS 应用程序中有效地使用 UITextView 作为按钮。当我点击文本视图时,我不希望它可编辑,但我希望它改变文本视图的背景颜色并开始使用应用程序中的语音识别软件。我见过其他一些与此类似的问题,但没有人回答这个具体问题。

0 投票
0 回答
708 浏览

swift - 错误域=kAFAssistantErrorDomain Code=209 "(null)" -- 重置按钮杀死听写

当我点击带有语音识别功能的应用程序的重置按钮时,我反复收到此错误消息。仅当我在应用程序正在积极收听语音识别时点击按钮时才会发生这种情况。该应用程序看起来仍在录制,但不会再接受任何输入。它也不会让我停止录制。代码如下。

0 投票
1 回答
125 浏览

ios - 如何实时录制音频声音,然后使用 iOS Swift 中的内置扬声器或耳机播放?

我想同时使用 AVAudioRecorder 和 AVAudioPlayer 构建一个 iOS 应用程序。类似于扩音器的东西,可以实时记录环境中的声音和声音,并实时播放它们,无需任何类型的声音处理。我想用一个按钮开始/停止创建一个临时文件。建议?我能怎么做?

0 投票
0 回答
229 浏览

text-to-speech - 自定义键盘扩展目标 c 中的语音到文本

我已经在我的主应用程序中成功实现了语音到文本功能,但是当我尝试在自定义键盘扩展中实现相同的代码时,它无法录制语音。我检查了所有内容并搜索了堆栈溢出,但找不到任何解决方案。这是我开始录制时的错误

我已经调试了所有的东西 AvAudioEngine,SFSpeechRecogniser 工作正常,我想,但麦克风没有录音,一段时间后出现以下错误

那么自定义键盘扩展中的语音到文本是否可能?如果是!谁能帮我!

0 投票
0 回答
821 浏览

swift4 - 当应用程序处于后台模式(手机锁定)时,Apple 的 SFSpeechRecognition 出错

我正在尝试使用 Apple 的 SFSpeechRecognition(xcode 9、ios11、swift 4)。以下代码使用计时器启动新的语音识别请求。我有背景功能,已授予麦克风使用权限和已授予语音识别权限。如果手机已解锁,一切都会按预期进行。但是当手机被锁定时,我收到以下错误:

2018-02-20 22:24:47.522562-0500 语音识别演示[3505:1234188] [实用程序] + [AFAggregator logDictationFailedWithError:] 错误域=kAFAssistantErrorDomain 代码=1700“(空)”

根据此链接,当应用程序处于后台模式时,语音识别似乎不起作用,但此信息已过时。我希望有人解决了这个问题或找到了解决方法。

有没有人解决了这个问题或者任何人都可以提出一些尝试?我的替代方法是为我的应用程序要求 Apple Watch,我真的很想避免这种情况......

0 投票
1 回答
48 浏览

ios - 如何检测两种不同的权限

我有一个检测麦克风的许可代码,然后是语音识别以打开新视图。但是下面的代码创建了错误,例如“在从主线程访问引擎后,此应用程序正在从后台线程修改自动布局引擎。这可能导致引擎损坏和奇怪的崩溃。”

谁能有任何想法?

0 投票
1 回答
2046 浏览

ios - 启动音频队列失败≥˚˛ˇ

0 投票
1 回答
815 浏览

ios - 为什么我的 SFSpeechRecognitionTaskDelegate 函数没有在 ios 中被调用?

所以我有一些委托功能,我已经通过设置委托

但是我的委托函数没有被调用

我的录音功能有问题吗?

我的委托职能是

0 投票
1 回答
544 浏览

ios - SpeechRecognizer 几分钟后失败

我正在开发一个使用 的 iOS 项目SFSpeechRecognizer,它在开始时运行良好。我说一些话,它会回应。但是一两分钟后,它就失败了。它不提供任何已识别结果的反馈。我想知道这是否与缓冲区有关,但我不知道如何修复它。

我基本上使用 SpeechRecognizer 的演示来构建项目。不同之处在于我将识别的结果逐字存储在一个数组中。程序分析数组并响应某些单词,例如“播放”或之前设置的其他一些命令。程序响应命令后,删除数组的这个元素。

谈话很便宜,这里是代码:

  1. 识别器,您可以看到supportedCommands过滤某些特定单词以供程序响应的数组。其他部分与https://developer.apple.com/library/content/samplecode/SpeakToMe/Listings/SpeakToMe_ViewController_swift.html#//apple_ref/doc/uid/TP40017110-SpeakToMe_ViewController_swift-DontLinkElementID_6的演示类似

    /li>
  2. 我们如何使用它:

    /li>

它响应某些命令并播放一些音频。

缓冲区有问题吗?也许经过一两分钟的识别,缓冲区已满?识别器只是随着时间的推移而失败。

0 投票
1 回答
364 浏览

ios - 如何使 SFSpeechRecongnizer 可用于每个 UIViewControllers

目前我正在为 iOS 10 功能应用程序开发语音到文本。在这里,代码成功地将语音返回到我的应用程序上的文本。我需要多次实现这个(几个viewController)我的问题是有人可以解释如何为我的每个viewControllers重复使用这个。是否有任何设计模式可以做。提前致谢。