问题标签 [mozilla-deepspeech]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 打开 DeepSpeech 模型时出现问题:“E/tflite:无法打开 '/storage/emulated/0/Download/deepspeech-0.9.3-models.tflite'。”
我正在尝试在 Android(AVD - Pixel 2,API 30)上使用 DeepSpeech Java API 运行 tflite 模型。我在创建 DeepSpeechModel 对象时遇到了问题。我不知道它可能是什么。
我在下载目录中有我的模型(我之前从 DeepSpeech 的 GitHub 下载了它),并且我在模型的构造函数中传递了该文件的路径。结果我收到:
这很奇怪,因为 f.exists() 返回 true。如您所见,我具有 WRITE/READ 权限(以及在 AndroidManifest.xml 中)
pytorch - MozillaTTS:RuntimeError:embedding.weight 的大小不匹配
我尝试使用 Anaconda 3 在两台不同的机器上直接通过控制台执行 MozillaTTS,我得到了相同的错误消息:
第一个是Centos 6.11 第二个是虚拟机Ubuntu 18.4(主机是Windows 10)
在两台机器上,我都安装了 Python 3.8.10。当我使用自己的 tts 模型执行英语句子时,我得到了一个非常机器人的声音。但是当我执行以下语句时:
tts –text “Este es un ejemlo en castellano” --config_path config.json --model_path best_model.pth.tar --out_path OUTPUT/ejemlo.wav --vocoder_path vocoder_model.pth.tar --vocoder_config_path config_vocoder.json
我正在使用自己的模型(通过培训获得)我收到以下警告消息:
[W NNPACK.cpp:79] 无法初始化 NNPACK!原因:不支持的硬件。
以及以下错误消息:
我不知道会出现什么问题,因为我在一些 Windows 10 机器上安装了 TTS 并且我没有遇到问题。
非常感谢你的帮助
javascript - Github 上 Git LFS 文件的文件路径返回指向文件的指针,而不是实际的二进制文件
因此,我在网上阅读了无数关于 Git LFS 及其工作原理的文章,但仍然无法为我的问题找到最终的解决方案。基本上,我正在使用 Mozilla Deepspeech,我正在尝试通过 Github 将我的项目上传到 Heroku。但是,由于 Deepspeech 文件很大,必须使用 Git LFS 上传。这很好,除了现在当我访问文件路径时,我收到指向具有 SHA256 ID 的文件的指针,而不是实际的二进制文件。我想知道是否没有办法解决这个问题,或者是否可以接收实际的文件内容。谢谢您的帮助。代码如下(顺便说一句,这是正确的路径)
python - 如何将检查点文件转换为 .pb 文件
所以我有一个包含这三个文件的文件夹:
- model.data-00000-of-00001
- 模型索引
- 模型.元
我想将 .data 文件转换为 .pb 文件。我已经检查了几乎一个链接,但我一直遇到错误并且卡住了。
这是我用来将检查点文件转换为 .pb 的脚本:
这里的 output_nodes 来自 DeepSpeech (Mozilla) 版本 0.1.0。这个版本提供了 491.0MB 的默认模型,我生成的是 490.9MB。但它们都是从相同的检查点生成的。我想进一步训练我的检查点文件,但在此之前,我想看看我是否也可以先将其冻结当我尝试转录音频文件时,这就是我不断得到的:
请帮忙!
tensorflow - 如何将 Optuna 与 Deepspeech 训练集成?
我正在尝试将 Optuna 与DeepSpeech集成以优化它的一些超参数。我现在坚持学习率,只是为了了解 Optuna 的工作原理,但我遇到了障碍,需要一些帮助。
我有一个功能hps_train
,它是训练步骤。它将 Optuna 试验对象作为参数并返回开发损失,这是我想使用 Optuna 来最小化的。这与 中的函数完全相同train()
,training/deepspeech_training/train.py
但有一些修改:
我还有一些辅助功能:
把它们放在一起:
当我运行此代码时,第一次运行正常完成。但是,当它尝试启动第二个时,我收到一个错误:
看起来 ValueError 抱怨某些张量与另一个张量不同。但我不明白这是怎么回事,因为我每次运行都是在一个新的 Graph 上下文中开始的,所以每个张量都应该与这个新图相关联。
Optuna 版本是 2.9.1,Tensorflow 版本是 1.15.4
如果您能深入了解我在哪里出错,或者即使这是使用 Optuna 的推荐方式,我将不胜感激。非常感谢!
python - 在 deepspeech 内部训练期间出错:无法使用模型配置调用 ThenRnnForward:[rnn_mode, rnn_input_mode, rnn_direction_mode]
尝试执行时出现以下错误
tensorflow.python.framework.errors_impl.InternalError:发现 2 个根错误。(0) 内部:使用模型配置调用 ThenRnnForward 失败:[rnn_mode, rnn_input_mode, rnn_direction_mode]: 2, 0, 0, [num_layers, input_size, num_units, dir_count, max_seq_length, batch_size, cell_num_units]: [1, 2048, 2048, 1, 798, 64, 2048] [[{{node tower_0/cudnn_lstm/CudnnRNNV3}}]] [[tower_0/gradients/tower_0/BiasAdd_2_grad/BiasAddGrad/_87]] (1)内部:使用模型配置调用 ThenRnnForward 失败: [rnn_mode, rnn_input_mode, rnn_direction_mode]: 2, 0, 0, [num_layers, input_size, num_units, dir_count, max_seq_length, batch_size, cell_num_units]: [1, 2048, 2048, 1, 798, 64, 2048] [[{{node tower_0/cudnn_lstm/CudnnRNNV3}}]] 0 次成功操作。0 派生错误被忽略。
python - ['kenlm/build/bin/build_binary','-a','255','-q','8','-v','trie','lm_filtered.arpa','/content/lm. binary']' 返回非零退出状态 1
在构建 lm binay 以创建记分员 doe deepspeech 模型期间,我一次又一次地收到以下错误
我使用的命令如下
mozilla-deepspeech - (0) 无效参数:目标转换序列没有足够的时间(必需:28,可用:24)在 Mozilla Deepspeech 训练期间
我正在使用以下命令开始训练 deepspeech 模型
我一次又一次地收到以下错误。
python-3.x - Python语音识别和deepspeech
我正在尝试使用 python 开发离线语音助手。我想通过使用麦克风和 deepspeech 进行流式传输来使用语音识别模块。我在互联网上没有找到类似的东西。这个怎么做?
python-3.x - 无法安装 deepspeech 服务器
我是 python 新手,我想在我的 Windows 系统上设置 deepspeech 服务器,以便它可以作为服务在后台运行,并且任何应用程序都可以访问数据,
我也检查了这个链接
但是在运行这个命令时我得到了这个错误:
'deepspeech-server' 不是内部或外部命令、可运行程序或批处理文件。
我已经在我的 Windows 系统上设置了 deepspeech,并且正在工作和转录数据。
但我想安装 deepspeech 服务器也可以在后台运行服务。我在 Windows 10 64 位上安装它
请有任何建议,谢谢