有没有办法使用load_word2vec_format更快地加载wiki-fasttext模型

时间:2017-05-15 17:07:38

标签: nlp stanford-nlp gensim fasttext

使用gensim库加载wiki-fasttext模型需要分钟。

我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体的api如下:

en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file))

当然,wiki-fasttext是一个非常大的模型,但是我在许多语言中加载了相同的模型。

1 个答案:

答案 0 :(得分:2)

您可以尝试使用limit=vector_num参数来加载文件中的vector_num个单词向量。您不会加载所有向量,但可以加快加载过程。