您所做的是将一个 Transformer 组件添加到您的管道中,并将您的 HuggingFace 模型的名称作为参数提供给它。这在 docs 中有介绍,尽管人们确实很难找到它。重要的是要了解 Transformer 只是 spaCy 管道的一部分,您应该了解它们是如何组合在一起的。
要从文档中提取,这是您在配置中指定自定义模型的方式:
[components.transformer.model]
@architectures = "spacy-transformers.TransformerModel.v3"
# XXX You can change the model name here
name = "bert-base-cased"
tokenizer_config = {"use_fast": true}
回到为什么你需要理解 spaCy 的结构,理解在 spaCy 中,Transformers 只是特征的来源是非常重要的。如果您的 HuggingFace 模型有 NER 头或其他东西,它将无法工作。因此,如果您使用自定义模型,则需要在此基础上训练其他组件,例如 NER。
另请注意,spaCy 有多种非变形金刚内置模型。它们的训练速度非常快,并且在许多情况下可以提供与变形金刚相当的性能;即使它们不那么准确,您也可以使用内置模型来配置您的管道,然后只需换入 Transformer。
我发现的所有指南、示例和帖子都从 spacy/en_core_web_sm 之类的 spacy 结构化模型开始,但是该模型最初是如何创建的?
您看到快速入门了吗?预训练模型是使用类似于您从中获得的配置创建的。