为什么训练拥抱变压器NER模型时评估损失会增加?

时间:2020-10-12 07:44:16

标签: python pytorch huggingface-transformers

根据文档训练huggingface transformers NER模型,评估损失在几个时期后增加,但其他分数(准确性,准确性,召回率,f1)却不断提高。该行为似乎是意外的,对此效果是否有简单的解释?这可以取决于给定的数据吗?

enter image description here

model = TokenClassificationModel.from_pretrained('roberta-base', num_labels=len(tag_values))


model.train()
model.zero_grad()

   for epoch in range(epochs):
      for batch in range(batches):
         -- train --
         ...

      train_loss = model.evaluate(train_data)
      validation_loss = model.evaluate(validation_data)



1 个答案:

答案 0 :(得分:0)

精度和损失不一定完全相关(成反比)。
损耗函数通常是精度函数的近似值-与精度不同,损耗函数必须是可微的。
可以找到很好的解释here