在经过预训练的BERT上进行微调后,如何导出/保存文本分类器

时间:2019-03-28 21:16:40

标签: python tensorflow tensorflow-estimator

我在https://colab.research.google.com/github/google-research/bert/blob/master/predicting_movie_reviews_with_bert_on_tf_hub.ipynb#scrollTo=PPVEXhNjYXC-的TF Hub上执行了使用BERT预测电影评论的步骤。

最后,如何导出模型以供以后用作分类器?

我找到了一个链接(https://guillaumegenthial.github.io/serving-tensorflow-estimator.html),该链接表明我可以将估算器导出为tf.saved_model。但是,我在创建“ serving_input_receiver_fn()”时遇到了麻烦。

1 个答案:

答案 0 :(得分:0)

使用泡菜保存模型

import pickle
# save the model to disk
filename = 'finalized_model.sav'
pickle.dump(model, open(filename, 'wb'))

#Load the model
loaded_model = pickle.load(open(filename, 'rb'))