问题标签 [openears]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - 从objective-c转换为swift
我目前正在尝试将objective-c 代码转换为openEars 提供的示例应用程序的swift。但是有这一行代码:
这是如何用swift写的?
它在框架中是这样定义的:
但是我确实尝试过这样的事情:
编译器错误是:
Swift 编译器错误预期声明
ios - 如何为 OpenEars 配置标题搜索路径
我正在尝试在我的项目中包含 OpenEars 框架。但除非我写绝对路径,否则它似乎看不到我的标题的路径。
绝对路径有效
来自框架的路径不起作用#import #import
ios - OpenEars 的 iOS 语音识别器导致 Apple Mach-O 链接器错误:架构 x86_64 的未定义符号
我尝试实现OpenEars语音识别器。由于下载的教程编译没有任何问题,当我尝试按照教程编写我自己的简单Objective-C代码时,我得到了五个 Apple Mach-O 链接器错误:
架构 x86_64 的未定义符号:
“_OBJC_CLASS_$_OEAcousticModel”,引用自:ViewController.o 中的 objc-class-ref “_OBJC_CLASS_$_OEEventsObserver”,引用自:ViewController.o 中的 objc-class-ref “_OBJC_CLASS_$_OELanguageModelGenerator”,引用自:ViewController.o“_OBJC_CLASS_$_OEPocketsphinxController”中的 objc-class-ref,引用自:ViewController.o 中的 objc-class-ref ld:未找到体系结构 x86_64 的符号:错误:链接器命令失败,退出代码为 1 (使用 -v 查看调用)
我尝试重新打开 XCode,添加了一些库/框架(如 CoreData),检查了目标成员资格,但仍然得到相同的错误。我尝试了这里和这里的建议,但它们没有帮助。顺便说一句,添加将SenTestingKit.framework
错误的数量从五个减少到一个。但是我仍然被链接器类型错误所困扰。据我所知,这些问题与链接有关,而不是与编码本身有关。
一些细节:运行 iOS SDK 8.4、XCode 6.4 (6E35b) 版本。添加了类似的库:CoreData.framework
、AVFoundation.framework
和AudioToolbox.framework
OpenEars 的框架(OpenEars.framework
、Sit.framework
)。
ps 之间,我需要一个像样的 iOS 和 OS X 语音识别器,使用 Objective-C,不一定是 OpenEars,所以,欢迎提出其他建议。
ios - Openears 检测不在字典和/或语言文件中的单词
我正在开发一个导航应用程序,该应用程序利用语音识别将用户指向他们的目的地。但是,这可能需要明显之外的短语或单词。“导航到”会很简单,因为我可以将它添加到字典中,但“星巴克”不会那么容易。我可以简单地添加星巴克,但这只能解决数十万个具有非标准名称的场所中的一个。我正在寻找一种更广泛的方式来做到这一点。
有什么方法可以设置或配置 Openears 来检测和理解所有说的话?
ios - 将数字拼写为 NSNumber 并克服 NSNumberFormatter 限制
我正在使用 OpenEars 检测用户说出的数字并转录成文本。我的目标是将拼出的数字转换为 NSNumber 实例。
我在这里听从了 Rob 的建议。所以我在调用 numberFromString 之前使用 NSNumberFormatter 并将 numberStyle 设置为 NSNumberFormatterSpellOutStyle。
这是我的 NSNumberFormatter 初始化代码的样子。
然后我 NSLogging numberFromString 的结果以获取一系列示例(仅用于测试)
第一的:
结果:
第二:
结果:
第三:
结果:
NSNumberFormatter 似乎不喜欢除个位数以外的任何小数。当涉及到必须用连字符分隔的两位数时,它似乎也有一套非常严格的规则。对于第三个例子,它只是一团糟......
这些是 NSNumberFormatter 的已知限制吗?您对克服这个有什么建议吗?
还有其他我还没有遇到的限制吗?
非常感谢所有输入。
ios - 在 iOS 上使用 OpenEars 由于背景噪音导致识别不佳
我在我的应用程序中使用OpenEars来识别一些单词和句子。我遵循了离线语音识别的基本教程并在 Swift 中执行了移植。这是设置过程
识别在一个安静的房间里对单个单词和整个句子都很有效(我会说它有 90% 的命中率)。然而,当我在安静的酒吧里尝试背景噪音很轻的时候,应用程序在识别单词时遇到了严重的困难。当有背景噪音时,有什么方法可以改善语音识别?
ios - 用 Xamarin 打开耳朵
我正在尝试使用语音识别制作一个 Xamarin.Forms 项目。对于 Android 来说,做起来很简单,但我对 iOS 很感兴趣。
我发现并阅读了关于 Open Ears 的信息。
当尝试使用它时,我发现了一些问题:首先我尝试使用这个 git:https ://github.com/oganix/MonoTouch-OpenEars 但 monotouch 对 Xamarin.iOS 无效:
https://www.dropbox.com/s/41rc7iyskbwby9n/error_phoenix.png?dl=0
接下来,我发现了这个问题Xamarin OpenEars Native Binding Not working on Device but works on Simulator。
阅读后,我尝试制作一个绑定项目,现在我在使用 Sharpie 自动生成 Open Ears API 时遇到了这个问题:
我用它来启动Sharpie:
我现在除了哭还能做什么?
谢谢大家,对不起我的英语。
ios - 在 XCode 7 中导入具有类别扩展的接口时编译和运行时失败
我正在尝试使用在 Swift 2.2 (XCode 7.3.1) 中运行的 RapidEars 插件运行 OpenEars 的示例。但是,我怀疑在 Swift 项目中使用带有扩展的 Objective-C 接口时遇到了更大的问题(或者我对它的工作原理的理解)。
OpenEars 代码是 Obj-C。但是,我能够通过标准的 Obj-C -> Swift 翻译技术让它在我的 swift 项目中运行。
缩写代码如下。完整的例子在一个分叉的 Github 上并更新到 Swift-2.2:https ://github.com/SuperTango/OpenEars-with-Swift-
以下示例效果很好。您可以通过签出“working-opears-swift2.2”标签来查看整个项目。
OpenEarsTest-Bridging-Header.h:
ViewController.swift:
到目前为止,一切都运行良好。
但是,为了使用“RapidEars”插件,文档 ( http://www.politepix.com/rapidears/ ) 说:
- 将框架添加到项目中并确保它被正确包含。
导入两个新文件(它们都是现有 OpenEars 类的“类别”):
/li>改变使用的方法:
startListeningWithLanguageModelAtPath
使用startRealtimeListeningWithLanguageModelAtPath
添加两个新的 OEEventsObservableDelegate 方法。
/li>
rapidears-notworking-stackoverflow
可以通过从上面的 github repo 中查看标签来找到新代码
问题1:
在 XCode 编辑器中执行完成时,编辑器会看到 WILL 对startRealtimeListeningWithLanguageModelAtPath
方法执行自动完成,但是当代码运行时,它总是失败并出现错误:
问题2:
在 XCode 编辑器中执行自动完成时,它看不到RapidEarsDemo/OEPocketsphinxController+RapidEars.h
.
我觉得这些是相关的,也与它们失败的方法被定义为 Objective-C 类的类别这一事实有关。但这只是目前的猜测。
我已确保 RapidEars 框架已导入并位于框架搜索路径中。
谁能告诉我为什么会这样?或者如果我错过了一些 Swift 魔法咒语?
objective-c - 从另一个类/控制器(IOS,目标 c)获取字符串时,打开耳朵文本到语音(语音)不起作用
我对 Objective c 和 OpenEars 很陌生,所以如果我有一些乱七八糟的代码并且如果我迷失在非常简单的问题中,请原谅我。
无论如何,我在这个应用程序中有两个控制器。第一个是默认 ViewController,第二个是我创建的新 ViewController,称为ReplyManagerController。
ViewController 中的代码基本上使用了教程中的代码,并进行了一些(可能更多)更改。
编辑:
该应用程序应该是一个基本的应用程序,用户说些什么,应用程序会回复。
但最初的问题是,当我的 ViewController 从另一个类/控制器获取字符串时,我无法让字符串显示或 TTS 工作。
我下面的答案提到这可能是因为我的其他类在没有初始化 self.fliteController 的情况下调用了我的 ViewController。
我将如何使用 self.fliteController 初始化 ViewController?
视图控制器.m
任何帮助都会很棒!谢谢!
回复管理器.m
编辑2:
viewDidLoad 方法
ios - 我可以更改 OpenEars (iOS) 的声音吗
我可以将 OpenEars 的说话声音更改为另一种吗?我不太喜欢默认的。这是可能的还是我必须使用另一个API。对不起,如果这是一个愚蠢的问题。