InvalidArgumentError:Keras R中索引[127,7] = 43不在[0,43)中

时间:2018-10-24 12:21:01

标签: r indexing keras tokenize

该问题与  到:InvalidArgumentError (see above for traceback): indices[1] = 10 is not in [0, 10) 我需要R,因此需要另一个解决方案,而不是上面链接中给出的解决方案。

maxlen <- 40
chars <- c("'",  "-",  " ",  "!",  "\"", "(",  ")",  ",",  ".",  ":",  ";",  "?",  "[",  "]",  "_",  "=",  "0", "a",  "b",  "c",  "d",  "e", "f",  "g",  "h",  "i",  "j",  "k",  "l",  "m",  "n",  "o",  "p",  "q",  "r",  "s",  "t",  "u",  "v",  "w",  "x",  "y",  "z")



tokenizer <- text_tokenizer(char_level = T, filters = NULL)

tokenizer %>% fit_text_tokenizer(chars)
unlist(tokenizer$word_index)

输出为:

 '  -     !  "  (  )  ,  .  :  ;  ?  [  ]  _  =  0  a  b  c  d  e  f  g  h  i  j  k  l  m  n  o  p  q  r  s  t  u  v  w  x  y  z 
 1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 

如何更改索引,使其在text_tokenizer中从0开始而不是从1开始?

运行fit()后出现以下错误:

InvalidArgumentError: indices[127,7] = 43 is not in [0, 43)
     [[Node: embedding_3/embedding_lookup = GatherV2[Taxis=DT_INT32, Tindices=DT_INT32, Tparams=DT_FLOAT, _class=["loc:@training_1/RMSprop/Assign_1"], _device="/job:localhost/replica:0/task:0/device:CPU:0"](embedding_3/embeddings/read, embedding_3/Cast, training_1/RMSprop/gradients/embedding_3/embedding_lookup_grad/concat/axis)]]

但是我相信更改索引会解决我的问题。

2 个答案:

答案 0 :(得分:1)

索引0通常是为 padding 保留的,因此也不要从0开始实际的字符索引。相反,您应该冒险进入Embedding层,并按documentation的建议在输入大小上加1:

  

input_dim: int>0。词汇量,即最大整数索引+ 1。

在您的情况下,这将是43 + 1 = 44。

答案 1 :(得分:0)

您需要使用词汇量大小初始化您的 Embedding 层。例如:

model.add(Embedding(875, 64))

在这种情况下,875 是我的词汇量。