en_vectors_web_lg和Glove向量(spaCy)之间的差异

时间:2018-02-14 04:15:08

标签: python spacy language-model

https://spacy.io/models/en#en_vectors_web_lg 声明该模型包含1.1米的密钥,但是 https://nlp.stanford.edu/projects/glove/ 声称Glove载体包含2.2M词汇

我可以知道哪些词汇丢失了吗?

非常感谢。

1 个答案:

答案 0 :(得分:2)

您可以通过查看spaCy .vocab属性/对象并将其与GloVe文件中的单词进行比较来自行检查spaCy和GloVe模型的词汇表。首先将数据加载到两个列表中:

import spacy
nlp = spacy.load('en_vectors_web_lg')
spacy_words = [word for word in nlp.vocab.strings]
glove_filename = 'glove.840B.300d.txt'
glove_words = [line.split()[0].decode('utf-8') for line in open(glove_filename)]

然后检查设定差异以获得“缺失”字样:

>>> list(set(glove_words) - set(spacy_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia',
 u'.90.99', u'USAMol', u'USAMon', u'Connerty', u'RealLife',
 u'NaughtyAllie']

>>> list(set(spacy_words) - set(glove_words))[:10]
[u'ftdna', u'verplank', u'NICARIO', u'Plastic-Treated', u'ZAI-TECH',
 u'Lower-Sulfur', u'desmonds', u'KUDNER', u'berlinghoff', u'50-ACRE']

超过2.2 mio - 1.1 mio~1.1 mio字缺失:

>>> len(set(glove_words) - set(spacy_words))
1528158

请注意nlp.vocab.stringsnlp.vocab.vectors之间存在差异。您可以使用

加载矢量对象中的单词
vector_words = []
for key, vector in nlp.vocab.vectors.items():
    try:
        vector_words.append(nlp.vocab.strings[key])
    except KeyError:
        pass

(关于try / except:我不清楚为什么vocab.strings中缺少某些键)

通过此列表,您可以获得:

>>> list(set(glove_words) - set(vector_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia', u'.90.99',  
 u'USAMol', u'USAMon', u'Connerty', u'RealLife', u'NaughtyAllie']

更新:这里提出了词汇表之间的差异问题https://github.com/explosion/spaCy/issues/1985