Gensim单词嵌入(Word2Vec和FastText)模型中的alpha值?

时间:2018-12-17 12:36:39

标签: python-3.x gensim word2vec word-embedding fasttext

我只想知道gensim word2vecfasttext词嵌入模型中alpha值的影响?我知道alpha是initial learning rate,默认值为Radim博客中的0.075

如果我将此值更改为更高的值(即0.5或0.75)怎么办?它的作用是什么?是否可以更改相同?但是,我将其更改为0.5,并在D = 200,window = 15,min_count = 5,iter = 10,workers = 4的大型数据上进行实验,结果对于word2vec模型非常有意义。但是,使用快速文本模型时,结果有点分散,意味着相关性较低且不可预测的高低相似度得分。

为什么使用两个具有不同精度的流行模型得出的相同数据的不精确结果? alpha的值在建立模型期间起着至关重要的作用吗?

任何建议都值得赞赏。

1 个答案:

答案 0 :(得分:1)

在gensim的Word2Vec实现中,默认的起始alpha0.025

在用于调整模型的随机梯度下降算法中,有效的alpha影响在评估每个训练示例后对模型进行的校正的强度,并且将从其初始值线性衰减({{ 1}})在所有训练过程中的最终价值(alpha)很小。

大多数用户在具有可靠的可重复性评估更改是否可以改善其最终任务模型的可靠方式之后,无需调整这些参数,或仅需对其进行一点调整。 (我看到的起始值为min_alpha或更不常见的0.05,但是从未达到您报告的0.1的起始值。)