2

我看到存在 T5model 的两个配置 - T5ModelTFT5WithLMHeadModel。我想测试这个翻译任务(例如en-de),因为它们在谷歌的原始仓库中显示。有没有办法可以使用这个模型从拥抱脸来测试翻译任务。我在文档方面没有看到任何与此相关的示例,并且想知道如何提供输入并获得结果。

任何帮助表示赞赏

4

2 回答 2

9

您可以使用T5ForConditionalGeneration翻译您的文本...

!pip install transformers

from transformers import T5Tokenizer, T5ForConditionalGeneration

tokenizer = T5Tokenizer.from_pretrained('t5-small')

model = T5ForConditionalGeneration.from_pretrained('t5-small', return_dict=True)

input = "My name is Azeem and I live in India"

# You can also use "translate English to French" and "translate English to Romanian"
input_ids = tokenizer("translate English to German: "+input, return_tensors="pt").input_ids  # Batch size 1

outputs = model.generate(input_ids)

decoded = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(decoded)

到目前为止,Transformers 不支持T5WithLMHeadModel 。

于 2020-11-07T21:07:14.400 回答
1

T5 是一个预训练模型,可以在机器翻译等下游任务上进行微调。因此,当我们要求它翻译时,我们预计会出现乱码——它还没有学会如何做到这一点。

于 2020-03-28T19:28:43.527 回答