我已经在我的应用程序中使用Nuance Dragon SDK实现了语音识别,用于语音到文本的转换。我也尝试过Open Ears,但无法正常工作。转换完成后,我使用该文本作为命令来触发我的应用程序中的操作。
我想知道是否可以在应用程序中使用Sirikit 。在查看WWDC16 Sirikit Introduction时,我无法理解它。可能是我对意图的解释不清楚,但据我所知,没有自定义意图来触发应用程序内部的某些操作。
另外,sirikit 是否也可用于目标 C 或仅适用于 Swift?
我已经在我的应用程序中使用Nuance Dragon SDK实现了语音识别,用于语音到文本的转换。我也尝试过Open Ears,但无法正常工作。转换完成后,我使用该文本作为命令来触发我的应用程序中的操作。
我想知道是否可以在应用程序中使用Sirikit 。在查看WWDC16 Sirikit Introduction时,我无法理解它。可能是我对意图的解释不清楚,但据我所知,没有自定义意图来触发应用程序内部的某些操作。
另外,sirikit 是否也可用于目标 C 或仅适用于 Swift?
SiriKit 用于在应用程序上下文之外与 Siri 集成。但是,Apple 确实为 iOS 10 发布了语音识别 API,这听起来更像你想要的。你可以在这里了解更多信息:https ://developer.apple.com/videos/play/wwdc2016/509/
所有 Apple 框架都可供 Objective-C 和 Swift 使用。