我有一个中国商品数据集,其中包含约五万种商品和1240个类别。我使用了三万五千项来微调中文的BERT-BASE。但是我在数据集上获得了非常低的准确性(准确性0.4%,global_step = 32728)。我不知道哪里出问题了。你能帮我吗?
我已经修改了DataProcessor
,并且创建了数据处理器
class CustProcessor(DataProcessor):
def get_train_examples(self, data_dir):
return self._create_examples(
self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
def get_dev_examples(self, data_dir):
return self._create_examples(
self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev")
def get_test_examples(self, data_dir):
return self._create_examples(
self._read_tsv(os.path.join(data_dir, "test.tsv")), "test")
def get_labels(self):
# 这里返回的为具体的你的分类的类别
return ['图书杂志--工业技术--一般工业技术', ...]
并且我使用下面的这些超参数来训练模型。
export DATA_DIR=data
export BERT_BASE_DIR=vocab_file/chinese
python3 run_classifier.py --task_name=CUST
--do_train=true
--do_eval=true
--data_dir=$DATA_DIR/
--vocab_file=$BERT_BASE_DIR/vocab.txt
--bert_config_file=$BERT_BASE_DIR/bert_config.json
--init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt
--max_seq_length=128
--train_batch_size=32
--learning_rate=2e-5
--num_train_epochs=3.0
--output_dir=output/
这是bert配置文件,我需要更改它们吗?
{
"attention_probs_dropout_prob": 0.1,
"directionality": "bidi",
"hidden_act": "gelu",
"hidden_dropout_prob": 0.1,
"hidden_size": 768,
"initializer_range": 0.02,
"intermediate_size": 3072,
"max_position_embeddings": 512,
"num_attention_heads": 12,
"num_hidden_layers": 12,
"pooler_fc_size": 768,
"pooler_num_attention_heads": 12,
"pooler_num_fc_layers": 3,
"pooler_size_per_head": 128,
"pooler_type": "first_token_transform",
"type_vocab_size": 2,
"vocab_size": 21128
}
当我使用其他模型(例如SVM)时。它们的准确性约为85%。但是BERT的准确性太低。