问题标签 [dictation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 在不使用默认 UI ANDROID 的情况下将语音转换为文本
可能重复:
来自自己的声音文件的语音到文本
我有一个以 wav 格式录制文件并将其转换为 mp3 格式的应用程序。
所以我需要解释这个文件并将其写入文本文件。
我正在考虑使用语音,但我不知道如何在没有 UI 默认的情况下使用它并删除自动停止。
基本上我需要记录和写入用户对我的应用程序的命令以及应用程序让他编辑文件的内容。我需要帮助将我的记录写入文本文件,知道吗?
谢谢你的时间
iphone - 在 iPad mini 中使用语音听写时 100% iPhone 应用程序崩溃
以下步骤总是会使应用程序崩溃。
- 从应用商店安装“iPhone 应用”到我的“iPad Mini”(通用应用除外)
- 在应用程序上找到任何文本字段并开始使用它(然后弹出键盘)
- 触摸键盘上的“语音听写”按钮
我猜这是 iPad mini 上的 iOS 错误。有人为此受苦吗?
提前致谢。
objective-c - 是否可以在 iOS 听写词典中添加单词?
我正在构建一个 iOS 应用程序,如果我可以为听写功能启用一些自定义单词(将文本输入 UITextView 时的听写等),除了现有的字典,那将是非常好的。
换句话说,我希望在听写文本时可以使用一些不属于 Apple 听写词典的单词。我最初认为这是不可能的,但我希望我可以与 SO 社区进行验证。
ios - 使用听写 - iOS 6 - DidStart?
如何回应开始听写?
响应听写的已知方法:
dictationRecordingDidEnd - 响应口述短语的识别完成。
dictationRecognitionFailed - 响应失败的听写识别。
参考: UITextInput 协议参考
从 iOS 5.1 开始,当用户在支持的设备上选择听写输入时,系统会自动将识别的短语插入到当前文本视图中。UITextInput 协议中的方法允许您的应用响应听写的完成,如“使用听写”中所述。您可以使用 UIDictationPhrase 类的对象来获取表示用户口述短语的字符串。在听写结果不明确的情况下,听写短语对象提供包含替代字符串的数组。
ios - 模拟器上的听写输入
是否可以在 iOS 模拟器上为 UITextField 提供听写输入?如果是这样,我需要做什么?我可用于开发的设备是 iPhone 4,我认为它不支持听写输入。
speech-recognition - 我们可以将 htk 用于听写之类的应用程序吗?
我想为听写之类的应用程序构建语音识别系统。我阅读了 htk book 和其他教程,但所有教程都是针对命令和控制之类的应用程序。对于这些应用程序,命令集、字数有限,并且是使用任务语法(gram
文件)手动指定的。
在我的应用程序中,无法指定这样的语法,因为我将处理包含两个人之间对话的巨大音频文件。
所以我想知道是否可以使用 htk 构建这样的应用程序。
谢谢...
睡了很多晚后更新
我使用 Sphinx 获得了 86% 的准确率。语言模型存在一些问题(我不知道它到底出了什么问题,我正在努力找出它)所以我使用 Sphinx 创建了新的语言模型lmtool
,这是一个基于 Web 的语言模型生成服务。您可以使用此链接获取它
此外,我已将声学模型从 HUB 更改为 WSJ。
ios - 带有听写功能的 Objective C AVAudioRecorder
我一直在尝试使 AVAudioRecorder 与 iOS 听写一起工作。到目前为止,我所做的是先启动 AVAudioRecorder,然后用户按下键盘上的麦克风按钮开始听写。我发现听写中断了 AVAudioRecorder 并且录音停止了。使用 AVAudioSessionInterruptionNotification,我尝试在录制中断后立即重新开始录制。它起作用了,但听写并没有“听到”任何东西。
有没有办法在 iOS 中使用听写时录制用户的声音?(我也知道,与 android 不同,Objective C 不会公开发送到其服务器的语音数据。)
iphone - UITextInput dictationRecordingDidEnd 被调用,但 insertDictationResultPlaceholder 没有
我正在为富文本编辑实现一个自定义文本视图,它实现了UITextInput
协议,当使用听写时,我发现它-dictationRecordingDidEnd
被调用了,但从-insertDictationResultPlaceholder
未被调用,所以它不会显示听写的占位符,知道吗?
protocols - 媒体资源控制协议 (MRCP) 和听写(无需语法的语音识别)
媒体资源控制协议(MRCP)是否讲述了语音识别,但没有讲述任何关于听写(不发送语法的语音识别)的信息。至少我找不到任何东西。
为什么不呢?还是我对 MRCP 的理解有误?如果是这样,MRCP 对听写怎么说?
windows-phone-8 - 我可以使用 SRGS 语法和语音识别来开发我的越南语软件吗
我正在开发一个支持越南人纠正声音的 windows phone 8 软件。我研究过可以使用 SRGS 语法来帮助构建与我的应用程序的复杂语音交互。那么我可以使用 SRGS 语法和语音识别来开发我的越南语软件吗?