我想用一些自己的数据集训练/微调 BERT 模型,这些数据集只包含来自特定领域的原始数据,类似于 BioBERT。在第一步中,我只想用这些原始数据训练 BERT,而不用任何特定的 NLP 任务进行微调。所以,我想建立一个基础,我可以用它来微调特定任务的带注释的训练数据,例如 NER 等。 这可能以我计划的方式进行吗?
我尝试使用 Huggingface 的示例脚本:https://github.com/huggingface/transformers/tree/master/examples/language-modeling
我通过以下方式使用了 run_mlm 脚本:
python run_mlm.py \
--model_name_or_path bert-base-uncased\
--train_file /path/to/text_file.txt \
--do_train \
--output_dir /out
我得到了一些输出,但如何评估生成的模型? 有一些我想尝试但失败的内在评估方法,比如词相似或词类比。
如果你能帮助我解决我的问题,我将不胜感激。
答案 0 :(得分:0)
要评估屏蔽语言模型,有两种策略:
尽管您要求使用内在评估方法,但我还是建议您执行一些微调任务。这可以是 GLUE,也可以是您的 NER 任务。