Spacy 'train' 命令使用命令行选项 --gpu 0,允许在使用 GPU 训练和不使用 GPU 之间进行“最后一分钟”选择 - 仅使用 CPU。
但是,使用https://spacy.io/usage/training#quickstart在 GPU 和 CPU 之间进行选择会导致(基本)配置存在重大差异。就我而言(处理 NER),我得到了两个不同的管道:
- 对于 CPU:管道 = [“ tok2vec ”,“ner”]
- 对于 GPU:管道 = [“变压器”,“ner”]
(具有非常不同的以下组件设置)。
由于我的 GPU 只有 6GB 内存,所以我很快就耗尽了 GPU 内存 - 无法使用它。但是当我切换到仅使用 CPU 时,两个管道之间的训练行为大不相同:
["tok2vec","ner"] 管道几乎在单核上运行,在几个小时内训练我的模型(8,000 个训练,2000 个开发/验证文档)。明显快于 Spacy 2(即使使用 GPU),但有时会使用大量内存(高达 30G)。
["transformer","ner"] 管道爆炸成使用多达 20 个内核(在 40 个逻辑内核机器上),所以我希望它运行得很快。但它似乎永远运行。在一个小时内,我只完成了第一个“时代”,然后(在下一个时代)它崩溃了(见下文)。由于我的数据(每个批处理 100 个“文档”的 DocBin 文件)是相同的,因此下面的崩溃(无序 B/I 标记)很难解释。
我的主要问题是为什么在针对 GPU 和 CPU 时管道会有所不同?以 GPU 为目标的向量在哪里?
碰撞: ...
File "C:\Work\ML\Spacy3\lib\site-packages\spacy\training\loop.py", line 98, in train
for batch, info, is_best_checkpoint in training_step_iterator:
File "C:\Work\ML\Spacy3\lib\site-packages\spacy\training\loop.py", line 194, in train_while_improving
nlp.update(
File "C:\Work\ML\Spacy3\lib\site-packages\spacy\language.py", line 1107, in update
proc.update(examples, sgd=None, losses=losses, **component_cfg[name])
File "spacy\pipeline\transition_parser.pyx", line 350, in spacy.pipeline.transition_parser.Parser.update
File "spacy\pipeline\transition_parser.pyx", line 604, in spacy.pipeline.transition_parser.Parser._init_gold_batch
File "spacy\pipeline\_parser_internals\ner.pyx", line 273, in spacy.pipeline._parser_internals.ner.BiluoPushDown.init_gold
File "spacy\pipeline\_parser_internals\ner.pyx", line 53, in spacy.pipeline._parser_internals.ner.BiluoGold.__init__
File "spacy\pipeline\_parser_internals\ner.pyx", line 69, in spacy.pipeline._parser_internals.ner.create_gold_state
File "spacy\training\example.pyx", line 240, in spacy.training.example.Example.get_aligned_ner
File "spacy\tokens\doc.pyx", line 698, in spacy.tokens.doc.Doc.ents.__get__
ValueError: [E093] token.ent_iob values make invalid sequence: I without B