问题标签 [speech-recognition-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
plugins - Shiny.SpeechRecognition (Plugin) 与 MvvmCross 和 Xamarin.Forms 的集成
我在 MvvmCross Xamarin.Forms 解决方案中实现了 Shiny Speech Recognition 插件。
=> https://github.com/shinyorg/shiny
Nuget => https://www.nuget.org/packages/Shiny.SpeechRecognition/1.0.0.357-beta
我正在尝试在 MvxViewModel 构造函数中使用 ISpeechRecognition,因为它在 GitHub 上的 Prism Sample 上工作。
=> https://github.com/shinyorg/shinysamples/tree/master/Samples/Speech
我已经实现了 MvvmCross 的集成插件。=> https://www.nuget.org/packages/Shiny.Integrations.MvvmCross/1.0.0.375-beta
现在我想知道如何使用语音识别服务。
我可以有类似的东西:
或者可能是具有寄存器依赖的依赖注入,例如:
我想知道,如果有人已经有 Shiny 插件 Xamarin.Forms 是如何使用该服务的?
我创建了一个启动 Shiny 类。
然后初始化一个顶级自定义应用程序定义。在 OnCreate() 方法中:
所以现在在我们的 ViewModel 中,我们可以从 ShinyMvxViewModel 继承来启动 ViewModel。
公共类 YourViewModel : ShinyMvxViewModel {}
一切正常。该应用程序启动没有问题。
这不起作用:
我可以创建构造函数,因为它无法识别 ISpeechRecognizer。
仅有的
正在工作中。
这也不起作用:
错误是它没有 ISpeechRecognizer 的实现。我不知道。
我已经在覆盖方法中初始化了惰性寄存器。
感谢您的帮助。
泽比菲尔
python - python3.7中的语音识别不起作用
我正在使用 OSX 并尝试语音助手的概念。但是,代码卡在audio = r.listen(source)
. 我尝试升级所有东西,但它不起作用。我的代码是:
回溯是:
java - javax.sound.sampled.LineUnavailableException:行格式为 PCM_SIGNED 16000.0 Hz,16 位,单声道,2 字节/帧
我正在从 Eclipse 中的一个项目中创建一个可运行的 jar,其中包含使用云语音进行语音识别的基本示例代码。无论如何,问题是当我从 Eclipse 运行代码时它工作正常,但是当我创建一个可运行的 jar 并执行它时,它会抛出以下异常:
“ javax.sound.sampled.LineUnavailableException:行格式为 PCM_SIGNED 16000.0 Hz,16 位,单声道,2 字节/帧,不支持 little-endian。”。
她的我的代码:
这是一个通过流音频识别语音的简单代码。
python - SpeechRecognition, AssertionError "Source must be an audio source"
这是我的代码:
当我在终端上键入“python main.py”并启动程序时,它开始收听但听不到我说的话。我尝试使用adjust_for_ambient_noise()
而不是,listen()
但它也没有改变任何东西。
我正在使用 macOS Catalina 和 Python 3.8.1。
这是我得到的错误:
这是我使用时得到的adjust_for_ambient_noise()
,如果我使用listen
,它不会结束,它只是听,我用 结束它Ctrl+C。
python - 如何在 python 中将音频 blob 字节转换为 .wav
我正在尝试使用语音识别中的烧瓶开发 api。我
想将字节转换为 .wav 文件,所以我可以在语音识别 api 中使用request.data
。<class 'bytes'>
这是我的代码
数据类型格式就像b'\x1aE\xdf\xa3\x9fB\x86\x81\x01B\xf7\x81\x01B\xf2\x81\x04B\xf3\x81\x08B\x82\x84webmB\x87\x81\x04B\x85\x81\x02\x18S\x80g\x01\xff\xff\xff\xff\xff\xff\xff\x15I\xa9f\ x99*\xd7\xb1\x83\x0fB@M\x80\x86ChromeWA\x86Chrome\x16T\
请帮助我找到解决方案。
reactjs - React 中的语音识别 API 问题以启用语音命令
我正在创建语音控制的 React 应用程序,该应用程序将在语音命令 ON 和 OFF 时使用“react-speech-recognition”模块打开和关闭灯。一切都按预期工作,但是我面临的一个问题是,即使我说出了一次命令,该应用程序也在听我的声音两次或更多次。如果有人对此分享他们的建议,那就太好了。这是我的代码,
所以,我注意到例如“on”命令的回调至少被调用两次,即使我只说一次“ON”。
有人可以帮我吗?有没有可能我说一次,命令就执行一次?
非常感谢您的光临!
android - Android 上的语音语言识别问题
我目前正在使用 Google 提供的 SpeechRecognizer 开发 Android 应用程序。但是,此识别器仅使用设备的默认语言,而不使用 RecognizerIntent.ADD_EXTRA_LANGUAGES 提供的语言:
例如,此代码不会使用法语进行识别,而是使用英语,因为它是设备的语言。但我需要它用法语工作。
我知道这个问题已经被问过很多次了,但那是很久以前的事了,我想知道是否有人知道这个错误是否已经修复,或者如何修复它?如果还没有修复,是否有人有任何解决方法/API/服务来在 Android 上创建语音语言识别应用程序?
谢谢您的帮助!
android - Android Speech to text API 屏蔽坏词
我正在开发一个 android 应用程序,用户可以在其中使用语音到文本功能搜索文档中的任何文本。我已经实现了 Android 的 Sppech 识别器类。如果用户说脏话或坏话,它会以蒙面形式返回结果,例如“f***”,我可以用它来搜索。我想要用户说出的单词而不是蒙面版本。
当前案例:用户说话 - 收到“fuck”文本 - “f***”
必需:用户说话 - 收到“操”文本 - “操”
我已经看到 Gboard 在使用 whatsapp 时设置了“允许冒犯性词”的选项,将其设置为 true 允许这样的词。
搜索解决方案,但可以找到它。这个问题有什么解决办法吗?
javascript - 我总是在 Javascript 语音识别中的 recongition.onerror() 侦听器中遇到网络错误
我正在创建一个应用程序,我想在 JavaScript 中使用语音识别向用户询问多个问题作为语音输入,但是当用户给出第一个答案时,即使在用户停止说话并在识别.onerror() 事件监听器中之后,迈克也会听很长时间打印的网络错误消息即使我的互联网工作正常,任何人都可以帮助解决这个问题。
ios - 语音识别 API 在 Safari 14.1+ 中不起作用
我正在尝试在 Web 应用程序中使用 Web Speech API。Apple 增加了对Speech Recognition API的支持,但是当它在Safari 14.1 和 15.1中使用时,它在我的应用程序中无法正常工作。
问题是用户停止讲话后麦克风永远不会停止收听,因此我没有得到可识别的文本。经过一番调查,我注意到单击麦克风按钮后,只会触发以下事件:onstart 和 onaudiostart。预期的 onspeechstart、onspeechend 和 onresult 永远不会被触发。
授予麦克风的所有权限,并启用 Siri 和听写。有没有人遇到同样的问题并知道如何解决?