如何使用微调的 bert pytorch 模型进行分类(CoLa)任务?
我没有看到争论--do_predict
,在/examples/run_classifier.py
。
但是,--do_predict
存在于 Bert 的原始实现中。
微调后的模型正在 BERT_OUTPUT_DIR 中保存为pytorch_model.bin
,但是有没有一种简单的方法可以通过命令行重用它?
使用来自: https ://github.com/huggingface/pytorch-pretrained-BERT 的 Pytorch 实现
我用来执行代码的命令是:
python run_classifier.py \
--task_name CoLA \
--do_train \
--do_eval \
--do_lower_case \
--data_dir ./split/ \
--bert_model bert-base-uncased \
--max_seq_length 128 \
--train_batch_size 32 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \