问题标签 [fairseq]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
285 浏览

fairseq - 在内存和预加载语言模型中运行 Fairseq

我在命令行中运行 Fairseq。Fairseq 即时加载语言模型并进行翻译。它工作正常,但加载模型和进行翻译需要时间。我在想,如果我们将 Fairseq 作为内存服务运行并预加载所有语言模型,那么运行该服务并进行翻译会很快。

我的问题是,

  1. 如果我们将 Fairseq 作为内存服务运行并预加载语言模型,效率会更高吗?
  2. 我们可以期待多少效率提升?
  3. 实现这样一个内存中的 Fairseq 服务有多容易?

非常感谢您提供帮助。

0 投票
0 回答
54 浏览

nlp - NLP 转换器 - PyTorch RuntimeError: shape [5, -1, 32783] 对于大小为 655360 的输入无效

我试图加载一次 SuperTransformer 模型,并在循环中多次对数据集执行预测 - 同时每次都更改采样模型配置。

我正在使用 github.com/mit-han-lab/hardware-aware-transformers 中的 generate.py 文件在WMT'14En -De 数据集上运行翻译。更改采样模型配置的代码部分位于model.set_sample_config(config)generate.py 的第 67 行。

基本上,我想要实现的是使用不同的 SubTransformer 配置对数据集重复推理——同时只加载数据集和模型一次(在第二次迭代中尽可能多地减少开销)。

我目前正在尝试实现以下修改后的代码,在#Load ensemble 阶段之后使用while循环,并在每次迭代后更改“config”变量。

但是,我收到以下错误:shape is invalid for input of size x

问题似乎与 sequence_generator.py 中“lprobs”变量的大小有关,其中第二次迭代的大小总是错误的。即使代码再次使用相同的 SubTransformer 配置循环,也会发生此错误。

我对 PyTorch 库和机器学习相当陌生,所以我能得到的任何帮助都将不胜感激!谢谢。

0 投票
0 回答
73 浏览

python - fairseq --print-alignment 格式的解释

我正在玩https://github.com/kanekomasahiro/bert-gec(语法错误更正),而后者又使用fairseq。按照 bert-gec github 页面上的文档,经过培训,我能够使用同名脚本(https://github.com/kanekomasahiro/bert-gec/blob/master/scripts/generate)生成输出。嘘)。因为我想查看对齐,所以我对 generate.sh 脚本所做的唯一更改是添加“--print-alignment”(在第 20-32 行对 interactive.py 的调用中)。这可行,但我不知道如何解释输出。我的输出示例:

最后一行是 --print-alignment 的结果。但是,我本来希望得到一些更容易理解的东西(比如 Pharaoh 格式,即 ,0-0 0-1 1-2 3-3 3-4 3-5 4-6 6-7 6-8从中您可以立即看到源中的哪个标记对应于目标中的哪个标记)。

任何关于如何解释这种对齐格式(或如何将其转换为更容易解释的格式)的想法都将非常受欢迎!

PS找到这个SO帖子,但这并没有真正帮助我(在fairseq代码中找不到引用的函数,也许是不同的版本,无论如何,获取对齐似乎不是问题,只是没有完全确定如何解释它们:)。

0 投票
0 回答
16 浏览

fairseq - 我们是否应该期望 wav2vec 的性能优于 Microsoft STT

我在一些 Ted 演讲中比较了 wav2vec 和 Microsoft STT 的准确度水平。

准确度级别是单词错误率

微软在每个文件上都比 Wav2vec 高出两倍。Wav2vec 不应该是最先进的吗?我在这里想念什么?

我使用 fairseq 中提供的 960hr 大模型来生成文本

0 投票
1 回答
146 浏览

python - 为自定义数据集训练 Wav2Vec-U

我找到了Wav2Vec-U的 github repo ,但它没有很好的记录。我想知道是否有任何火车程序。我正在尝试在常见的语音音频上对其进行训练。但它需要 wrd、ltr 和 phn 文件,而我无权访问。

0 投票
1 回答
122 浏览

debugging - 是否可以使用 vscode 或其他工具调试 fairseq 任务?

我正在使用 fairseq 通过命令行工具运行自定义任务fairseq-train ${data} {args}。是否可以进入调试模式?

0 投票
1 回答
45 浏览

machine-learning - 在文档中找不到一些 fairseq 参数

我正在使用 fairseq(版本:1.0.0a0+14c5bd0)根据此链接微调模型。但是,有很多参数我在文档中找不到,也无法在运行fairseq-train --help. 示例包括:

它们是否被其他一些参数取代?

0 投票
1 回答
789 浏览

python - torch.hub.load() 引发 HTTPError:HTTP 错误 404:加载模型时未找到

我在fairseq GitHub 存储库中找到了这段简单的代码,它基本上bart.base从以下位置加载 PyTorch 模型torch.hub

这段代码大约在两周前运行良好,现在它引发了以下错误,尽管我没有更改任何内容:

此外,我发现这种情况发生在fairseq. 以下所有模型都会引发相同的错误:

所以,他们之间一定有共同点。

0 投票
0 回答
29 浏览

python - 发生错误:'Generator' object has no attribute 'translate'

我正在使用基于 fairseq 的海量翻译模型,将其应用到 Django 服务器上。因此,在翻译阶段,我尝试使用 translate 方法供参考: https ://github.com/pytorch/fairseq/tree/main/示例/翻译#example-usage-torchhub

但是运行这段代码会报这个错误。是MASS没有实现translate方法,还是我的代码问题?</p>

0 投票
0 回答
27 浏览

translation - Fairseq 翻译没有超出词汇量的单词

我正在通过 torch hub 使用 fairseq 的预训练 WMT19-ru-en 单一模型并希望将俄语推文翻译成英语。大多数翻译都非常好,除非他们提到 covid 或冠状病毒。该模型会自动将这些词替换为随机的其他词,例如“麻疹”或“蚊子”。

因此,我想知道是否可以调整此模型或更改一些设置以省略或跳过这些字典单词。我对这些翻译模型的经验很少。作为参考,我在下面添加了一个例句:

  • 俄语: "И как переболевший ковидом я точно могу сказать, что ковид куда страшнее и хуже"
  • 谷歌翻译:“作为一个感染过新冠病毒的人,我可以肯定地说新冠病毒比接种疫苗更糟糕。”
  • Fairseq 输出:“作为感染过蚊子的人,我可以肯定地说,蚊子比接种疫苗更可怕、更糟糕。”