如何使用微调的bert pytorch模型进行分类(CoLa)任务?
在--do_predict
中看不到参数/examples/run_classifier.py
。
但是,--do_predict
存在于Bert的原始实现中。
经过微调的模型正在以pytorch_model.bin
的形式保存在BERT_OUTPUT_DIR中,但是有一种简单的方法可以通过命令行重用它吗?
使用来自https://github.com/huggingface/pytorch-pretrained-BERT
的Pytorch实施我用来执行代码的命令是:
python run_classifier.py \
--task_name CoLA \
--do_train \
--do_eval \
--do_lower_case \
--data_dir ./split/ \
--bert_model bert-base-uncased \
--max_seq_length 128 \
--train_batch_size 32 \
--learning_rate 2e-5 \
--num_train_epochs 3.0 \