2

如何使用微调的 bert pytorch 模型进行分类(CoLa)任务?

我没有看到争论--do_predict,在/examples/run_classifier.py

但是,--do_predict存在于 Bert 的原始实现中。

微调后的模型正在 BERT_OUTPUT_DIR 中保存为pytorch_model.bin,但是有没有一种简单的方法可以通过命令行重用它?

使用来自: https ://github.com/huggingface/pytorch-pretrained-BERT 的 Pytorch 实现

我用来执行代码的命令是:

python run_classifier.py \
  --task_name CoLA \
  --do_train \
  --do_eval \
  --do_lower_case \
  --data_dir ./split/ \
  --bert_model bert-base-uncased \
  --max_seq_length 128 \
  --train_batch_size 32 \
  --learning_rate 2e-5 \
  --num_train_epochs 3.0 \
4

0 回答 0