创建一个包含单词词汇的语料库

时间:2019-09-18 01:48:01

标签: python nltk information-retrieval

我正在为我的文档字典中的所有单词计算inverse_document_frequency,我必须显示根据查询分数排名最高的5个文档。但是我在创建包含文档中单词词汇的语料库时陷入了循环。请帮助我改善代码。 此代码块用于读取我的文件并删除文件中的标点符号和停用词

def wordList(doc):
"""
1: Remove Punctuation
2: Remove Stop Words
3: return List of Words
"""
file = open("C:\\Users\\Zed\\PycharmProjects\\ACL txt\\"+doc, 'r', encoding="utf8", errors='ignore')
text = file.read().strip()
file.close()
nopunc=[char for char in text if char not in punctuation]
nopunc=''.join(nopunc)
return [word for word in nopunc.split() if word.lower() not in english_stopwords]

此代码块用于将所有文件名存储在我的文件夹中

file_names=[]
for file in Path("ACL txt").rglob("*.txt"):
file_names.append(file.name)

此代码段用于创建我正在使用的文档字典

documents = {}
for i in file_names:
documents[i]=wordList(i)

上面的代码运行良好且快速,但是这段代码需要花费大量时间来创建语料库,我该如何改进

#create a corpus containing the vocabulary of words in the documents
corpus = [] # a list that will store words of the vocabulary
     for doc in documents.values(): #iterate through documents 
        for word in doc: #go through each word in the current doc
            if not word in corpus: 
                corpus.append(word) #add word in corpus if not already added

这段代码创建了一个字典,用于存储语料库中每个单词的文档频率

df_corpus = {} #document frequency for every word in corpus
for word in corpus:
    k = 0 #initial document frequency set to 0
    for doc in documents.values(): #iterate through documents
        if word in doc.split(): #check if word in doc
            k+=1 
    df_corpus[word] = k

从2个小时开始,它会创建语料库,并且仍在创建中。请帮助我改善代码。 这是我正在使用的数据集 https://drive.google.com/open?id=1D1GjN_JTGNBv9rPNcWJMeLB_viy9pCfJ

1 个答案:

答案 0 :(得分:0)

将语料库设置为 set 类型而不是列表呢?您也不需要其他 if

corpus = set() # a list that will store words of the vocabulary
for doc in documents.values(): #iterate through documents 
    corpus.update(doc) #add word in corpus if not already added