如何计算预训练词嵌入的相似度

时间:2018-10-28 20:36:26

标签: r keras word2vec word-embedding glove

我想通过 R 中的预训练嵌入向量来了解彼此之间最相似的词。例如:与“啤酒”相似的词。为此,我在http://nlp.stanford.edu/data/glove.twitter.27B.zip上下载了预训练的嵌入向量,并应用了以下代码:

源代码:

glove_dir = "~/Downloads/glove.6B"
lines <- readLines(file.path(glove_dir, "glove.6B.100d.txt"))
embeddings_index <- new.env(hash = TRUE, parent = emptyenv())
for (i in 1:length(lines)) {
    line <- lines[[i]]
    values <- strsplit(line, " ")[[1]]
    word <- values[[1]]
    embeddings_index[[word]] <- as.double(values[-1])
}
cat("Found", length(embeddings_index), "word vectors.\n")

embedding_dim <- 100
embedding_matrix <- array(0, c(max_words, embedding_dim))
for (word in names(word_index)) {
  index <- word_index[[word]]
  if (index < max_words) {
    embedding_vector <- embeddings_index[[word]]
    if (!is.null(embedding_vector))
      embedding_matrix[index+1,] <- embedding_vector
  }
}

但是我不知道如何使单词最相似。 我找到了示例,但由于嵌入向量的结构不同而无法正常工作

find_similar_words <- function(word, embedding_matrix, n = 5) {
    similarities <- embedding_matrix[word, , drop = FALSE] %>%
    sim2(embedding_matrix, y = ., method = "cosine")
    similarities[,1] %>% sort(decreasing = TRUE) %>% head(n)
}
find_similar_words("beer", embedding_matrix)

如何为 R 中的预训练词嵌入计算相似度?

0 个答案:

没有答案