问题标签 [dictation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 在没有键盘的情况下以多种语言启动 iOS 听写
我想为 iOS 创建一个可以使用键盘听写功能的应用程序,而无需用户单击键盘的麦克风图标(应用程序的按钮将启动听写文本的侦听)。有没有办法做到这一点?我应该使用 swift 还是 Objective C 来做到这一点?
我想做的另一件事是让这个听写适用于不同的语言。当用户没有在他的键盘设置中选择这种语言时,我可以这样做吗?
感谢您的帮助和回答。
macos - 无法使用 Mac 听写自定义命令
我广泛使用内置的 Mac Yosemite 听写,我发现它在理解我的演讲方面做得非常好,至少当我用完整的句子说话时。
我还使用您在系统偏好设置的可访问性下找到的听写命令,例如向下滚动和向上滚动。(它甚至可以很好地区分我将“向下滚动”作为命令说与我将其作为句子的一部分说之间的区别。)
但是我一辈子都无法使用任何自定义命令。例如,我尝试将“关闭此”绑定到 cmd-w,将“牙膏”绑定到“成功”(作为实验)。
我永远无法通过听写来识别这些命令。我似乎正在遵循每个教程中显示的步骤。它似乎不起作用。
macos - 我如何截取 OSX 10.11 上的听写内容
我使用的是 2011 年初运行 OS X El Capitan 的 MacBook Pro。他们重新添加了允许持续聆听的听写功能,我一直在使用 Applescript(如“计算机,退出”并运行脚本)。不过我很想扩展。
我的问题:我在哪里可以找到计算机正在解释的内容?我想使用整个短语,例如“计算机,我想听音乐”,并让它在该短语中搜索关键字音乐(然后打开 iTunes 或其他东西)。这样,它可以解释句子,而不是像“退出”或“关闭”这样的短命令。另外,我将如何创建一个继续在后台运行的程序,搜索这些关键字。
感谢您的帮助(我是新手),
紫杉醇7
macos - 如何在 AppleScript 中将一系列单词转换为驼峰式大小写?
我正在尝试修改 Dragon Dictate,它可以使用一系列已说出的单词来执行 AppleScript。我需要找出如何获取包含这些单词的字符串并将其转换为驼峰式大小写。
所以如果我设置一个宏来执行上面的脚本,称为camel,我说“camel string with string”,dictedText将被设置为“string with string”。这是DD的一个很酷的功能。但是我不知道AppleScript,所以我不知道如何将“带字符串的字符串”转换为驼峰式,即stringWithString。
如果我能学会这个基本的东西,我也许最终可以开始通过语音编程,这比处理流行的小键盘和游戏键盘更好,但我发现它们很糟糕。
speech - 如何将语音听写合并到基于 C# Windows 窗体控件的程序中
我正在尝试将语音听写合并到作为自定义文本编辑器的 C# Windows 窗体控件中。这是我实例化 SpeechRecoginizer 的简单代码。我的文本编辑器控件正在接受语音听写并显示听写的文本。它还可以理解“向下滚动”或“向上滚动”等基本命令。
但是,它不能理解很多更复杂的听写命令,例如“删除比”、“选择接下来的 4 个单词”等。所以,当我说“删除那个”时,语音监视器显示“此命令不是现在有空'。我尝试为“删除那个”添加语法,但这不会改变行为,语音监视器仍然显示相同的消息,我无法在 SpeechRecognized 事件处理程序中捕获“删除那个”。有谁知道需要合并哪个 API 或 .NET 接口来捕获这些命令并实现它们?
ios - 在 iOS 8 上使用私有语音识别框架
我需要将语音识别添加到个人项目的应用程序中。
我需要 iOS 内置的语音识别框架,因为它快速、准确,并且还可以识别您的联系人姓名和有关您自己的其他信息。
到目前为止,我想我已经找到了包含 iOS 8 上语音识别标头的框架:SAObjects.framework 我得到了 Github 的标头,并将它们成功添加到我的 Xcode 项目中。到目前为止我尝试过的标题是:
但是,我不确定如何与他们合作。例如,这是可以触发语音识别的两种可能方法:
但是,当我调试它时,我在任何这些对象中都找不到任何字符串。所以,显然有些不对劲。也许我需要设置一个通知观察者?
另一种解决方案可能是开始听写(通过键盘)到隐藏的文本字段(不显示键盘)。就像越狱设备的激活器操作一样,如果您熟悉的话。但是我还没有找到任何可以启动键盘听写的方法,或者激活器操作源代码来查找它。
也许有人已经尝试过这些东西并且可以给我一些帮助?
如果您需要有关此问题的更多信息,请告诉我:)
非常感谢!
cocos2d-iphone - 使用 CCTextField 听写(麦克风按钮)时 Cocos2d 崩溃
在 CCTextField 中输入期间点击麦克风按钮时,我遇到了永久性崩溃。iPhone 4s iOS8 上没有崩溃,但游戏在iPhone 5s iOS9 和iPhone 6+ iOS9 上崩溃。这个问题似乎与此处描述的相同http://discuss.cocos2d-x.org/t/engine-crash-on-ios7/9129/10并且那里有 cocos2d-x 的解决方案。有人可以为 cocos2d-objc 提供解决方案吗?
xcode - 如何以编程方式找出当前为听写选择了哪种语言?(苹果手表)
我有一个专门用于英语听写的 Apple Watch 应用。没有更多语言可用的原因是一个很长的故事,所以请耐心等待。我知道在屏幕上进行“硬按”,而听写的声音很好,会弹出一个“选择语言”菜单,用户可以在其中选择一种可用的语言进行听写。
我想以编程方式找出当前正在使用哪种语言进行听写,以便如果当前选择了任何其他语言,我可以提示用户切换到英语。
菜单和我手机上的所有内容都是英文的,但我也使用德语、加泰罗尼亚语和西班牙语。
到目前为止,我正在使用以下代码:
但实际上,这会返回在主 iOS Watch Map 中设置的系统语言:常规 > 语言和区域 > 系统语言,而不是听写语言。
...这是我用于听写的代码:
是否有可能检测出哪种语言真正用于听写?
watchkit - WatchKit:听写功能是如何工作的?
有人可以帮我理解听写 API 在 WatchKit 中的工作原理吗?我知道我们使用文本输入控制器 (presentTextInputControllerWithSuggestions) 让用户口述文本。现在我有几个问题:
- 用户能否在同一个控制器中看到口述文本?
- 用户可以以某种方式编辑文本吗?
- 我可以更改控制器的外观和感觉吗?
提前致谢。
问候, 卡维塔