如何在Tensorflow Hub中使用自定义模型?

时间:2020-01-21 16:35:34

标签: tensorflow google-colaboratory tensorflow-hub bert-language-model tf-hub

我的目标是在Google Colab中测试Google的BERT算法。

我想对芬兰语(https://github.com/TurkuNLP/FinBERT)使用经过预先训练的自定义模型。在TFHub库上找不到该模型。我还没有找到使用Tensorflow Hub加载模型的方法。

是否可以通过Tensorflow Hub轻松地加载和使用自定义模型?

1 个答案:

答案 0 :(得分:0)

根本上:是的。每个人都可以创建TF Hub托管的模型,我希望有趣的模型的作者也可以考虑到这一点。

也就是说,像BERT这样的复杂模型需要一点注意才能将其与所有钟声一起导出,因此它有助于建立一些工具。 https://github.com/tensorflow/models/tree/master/official/nlp/bert上TF2的BERT参考实现带有开源的export_tfhub.py脚本,任何人都可以使用它导出从该代码库创建的自定义BERT实例。

但是,我从https://github.com/TurkuNLP/FinBERT/blob/master/nlpl_tutorial/training_bert.md#general-info获悉,您使用的是BERT的原始TF1实现的Nvidia分支。有一些使用原始研究代码创建的Hub模块,但是为此目的的工具尚未开源,并且Nvidia似乎也未添加它们自己的。

如果这种情况没有改变,您可能不得不采取行人专用的方式来做事,并熟悉他们的代码库并将其检查点加载到其中。