en_vectors_web_lg和Glove向量(spaCy)之间的差异

问题描述 投票:4回答:1

https://spacy.io/models/en#en_vectors_web_lg表示该模型包含1.1米密钥,但https://nlp.stanford.edu/projects/glove/表示Glove向量包含2.2M词汇

我可以知道哪些词汇丢失了吗?

非常感谢你。

python spacy language-model
1个回答
2
投票

您可以通过查看spaCy .vocab属性/对象并将其与GloVe文件中的单词进行比较来自行检查spaCy和GloVe模型的词汇表。首先将数据加载到两个列表中:

import spacy
nlp = spacy.load('en_vectors_web_lg')
spacy_words = [word for word in nlp.vocab.strings]
glove_filename = 'glove.840B.300d.txt'
glove_words = [line.split()[0].decode('utf-8') for line in open(glove_filename)]

然后检查设定差异以获得“缺失”字样:

>>> list(set(glove_words) - set(spacy_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia',
 u'.90.99', u'USAMol', u'USAMon', u'Connerty', u'RealLife',
 u'NaughtyAllie']

>>> list(set(spacy_words) - set(glove_words))[:10]
[u'ftdna', u'verplank', u'NICARIO', u'Plastic-Treated', u'ZAI-TECH',
 u'Lower-Sulfur', u'desmonds', u'KUDNER', u'berlinghoff', u'50-ACRE']

有超过2.2 mio - 1.1 my~1.1我的单词缺失:

>>> len(set(glove_words) - set(spacy_words))
1528158

请注意,nlp.vocab.stringsnlp.vocab.vectors之间存在差异。您可以使用向量对象加载单词

vector_words = []
for key, vector in nlp.vocab.vectors.items():
    try:
        vector_words.append(nlp.vocab.strings[key])
    except KeyError:
        pass

(关于尝试/除外:我不清楚为什么在vocab.strings中缺少某些键)

通过此列表,您将获得:

>>> list(set(glove_words) - set(vector_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia', u'.90.99',  
 u'USAMol', u'USAMon', u'Connerty', u'RealLife', u'NaughtyAllie']

更新:https://github.com/explosion/spaCy/issues/1985提出了词汇之间的差异问题。

© www.soinside.com 2019 - 2024. All rights reserved.