我正在寻找微调拥抱脸的 GPT-2 PyTorch 模型。
https://github.com/huggingface/pytorch-transformers/tree/master
我阅读了他们文档中的“示例”部分,其中展示了在 RocStories 数据集上训练旧 GPT 模型的示例。
https://huggingface.co/pytorch-transformers/examples.html#fine-tuning
我想知道如何为 GPT-2 进行这种培训。另外,我的数据集没有'Evaluation Set'。我只是想在我的数据集上微调 GPT-2,然后用它来生成与微调过的数据集“相似”的新文本。
我很确定我在文档中的某个地方遗漏了一些东西。如果有人能指出我正确的方向,我会很高兴。