问题标签 [openears]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 仅当强度达到特定分贝时才从语音输入中识别短语 [iOS]
我已经很好地浏览了这个组中的主题,试图看看这个问题之前是否已经解决过,但找不到确切的东西。因此,如果这是旧帽子,请道歉。还请原谅我的问题的新手性质。
仅当强度达到特定分贝时,如何让 iOS 应用程序从语音输入中识别短语?例如:当用户说“你好”时,它应该捕获语音,然后检查短语,以确保用户是否说“你好”或其他内容。也许,openears可以为我解决这个问题。但是我怎样才能测量声音的强度呢?仅当以 110dB 的频率说出“你好”这一短语时,才必须考虑语音输入。如果不是,它应该忽略。这可以用 Openears 完成吗?请用你的建议指导我
ios - 使用 OpenEars + Rejecto 识别 iOS 关键字
找了一个关键词定位api,发现最有前途的是OpenEars + Rejecto插件。我需要识别一个非常简单的字典,例如Up、Down、Left、Right。按照步骤在此处运行示例项目。-
http://www.politepix.com/rejecto/
但无论我说什么,该应用程序总是以相同的顺序识别相同的单词。我确定我错过了一些明显的配置项目的东西,但不知道是什么。任何人都成功运行了示例Rejecto项目,或者可以为我指出一个更好的 sdk 用于关键字发现的方向?
ios - iOS:OpenEers 不起作用
我正在尝试使用 OpenEars 语音识别套件,但不适用于我的 iPhone 3GS。我已经编写了他们教程提供的所有代码片段,但说话时没有任何反应。这是我的代码:
ios - 如何检测词组?
我正在通过我的应用程序中的 OpenEars 功能实现语音到文本。我还使用Rejecto
插件来更好地识别并RapidEars
获得更快的结果。目标是检测短语和单个单词,例如:
大多数时候结果很好,但有时它会从单独的字符串对象中混合。例如我传递words
数组:@[@"ME AND YOU",@"YOU",@"ME"]
并且输出可以是:"YOU ME ME ME AND"
。我不希望它只识别短语的一部分。请问有什么想法吗?
ios - Openears 请求允许使用麦克风
我制作了一个使用Openears
框架来读出一些文本的应用程序。但我没有使用任何Openears'
语音识别/语音合成功能,只是语音对话功能。我的应用程序被苹果拒绝,告诉应用程序请求使用麦克风的权限,而该应用程序没有任何此类功能。以下是来自苹果的拒绝信息:
我已经搜索了消息中提到的应用程序AVAudioSessionCategoryRecord
或AVAudioSessionCategoryPlayAndRecord
音频类别,但找不到任何内容。如何禁用提示允许使用麦克风?
ios - iOS 应用程序的语音控制,字典非常有限,可快速识别
我正在考虑为 iOS 应用程序实现基本的语音控制。该应用程序将有一个包含大约 30 个条目的字典,其中每个条目是名字和姓氏。当用户对应用程序说话时,应用程序需要从 ~30 的列表中选择正确的名称。
我不确定的一件事:名称列表由应用程序的每个用户定义。所以每个用户都会有一组不同的名字。
我想知道是否有一个可在此级别上自定义的开源库?我最担心的是我不能让用户定义字典。
关于如何做到这一点的任何想法?
在此先感谢,请原谅含糊的问题:)
#### ### ### ###
更新:我知道 OpenEars 库。如果他们允许有限的用户定义词典,则无法在他们的网站上找到任何内容。我可以看到应用程序开发人员可以设置自定义字典,但如果应用程序的最终用户可以这样做,则没有任何信息。谢谢您的帮助!
ios - iOS 上的语音识别 - 在 iOS 上将 OOV 单词转换为音素?
我已经尝试过,如 StackOverflow 上的建议,Openears 成功,并从 NSSTRINGS 数组生成自定义词汇表。但是,我们还需要从通讯录中识别姓名,而这里的回退方法不可避免地经常会惨败……</p>
我可以自己编写一个解析器并动态地将文本(主要是法语和荷兰语发音的名称)转录为音素,但这将是很多(猜测)工作……。我很确定我需要的数据是在识别过程中的某个地方生成的,所以也许有人可以以我可以在 iOS 上利用的方式将我指向 OpenEars 或 Flite 代码中的一个钩子?
或者其他一些可以将用户语音转换为我可以输入 Openears 的音素字符串的库?
ios - Open Ears API 说它听到的每一个声音都是一个词,甚至是咳嗽
我正在尝试将 Open Ears 用于我的应用程序的一小部分。我有三个或四个我希望能够“听”到的关键字。诸如“加”、“减”等之类的东西。我只是使用此处找到的示例应用程序。 当我在这里“添加”等时,我想在应用程序中有一个特殊情况,而不是一个不是我的四个关键字之一的词。现在我将我的语言设置为只有四个关键字,但只要 Open Ears API 听到任何内容,它就会在我的四个关键字之间进行选择。所以如果我咳嗽,它会从四个词中选出最接近的词
如何在不总是选择关键字之一的情况下收听特定单词?
我在想我可以有一大堆单词,几百个,然后检查说的是哪个单词,并为我的四个关键字设置一个特殊情况,但我不想输入每个单词。Open ear 是否提供任何默认语言?
ios - [如何]打开多个语句到语音
我是 IOs 开发的新手。现在,我需要在我的应用程序中使用“文本到语音”功能,我发现 OpenEars 平台可以做到这一点。但在我的代码中,它只能在一个类中说出一个语句。我在 Google 上搜索,但我找不到如何使用 OpenEars 发表多个声明。这是我的代码:
oEEO 是 OpenEarsEventsObserver
出纳员如何说“Hello World Again”?谢谢你的阅读!
openears - Openears ios 库回调中的 utteranceID 参数是什么?
openears 的回调是
假设是文本本身,分数是自我解释的。什么是 utteranceID?
谢谢分配!