由于否定索引查找,Keras嵌入层中的InvalidArgumentError

时间:2018-04-30 12:38:21

标签: python-3.x tensorflow keras

我正在尝试训练在Keras实施的深度学习模型时收到InvalidArgumentError。我在Keras和TensorFlow中搜索过类似的问题,但由于无法找到索引,我的错误消息似乎不常见。以下是错误消息。

  

tensorflow.python.framework.errors_impl。 InvalidArgumentError :indices [427,9] = -2147483648 不在[0,38545]   [[Node:time_distributed_1 / Gather = Gather [Tindices = DT_INT32,Tparams = DT_FLOAT,validate_indices = true,_device =“/ job:localhost / replica:0 / task:0 / device:CPU:0”](embeddings / read, time_distributed_1 /角色)]]

我使用的是Python 3.5.2,TensorFlow版本是1.4.1,而Keras版本是2.1.5。

正如您所注意到的,不仅正在寻找的指数是负数,它实际上等于-2 ^ 31。 (即最低的32位有符号整数值)

以下是我用来准备模型的代码。

import numpy
from keras.layers import Embedding, Bidirectional, LSTM, TimeDistributed
from keras_contrib.layers import CRF

# Form embedding layer's weight matrix
V = len(word_to_index) + 1  # V = 38545
embedding_weights = numpy.zeros((V, N))
for word, index in word_to_index.items():
    embedding_weights[index, :] = word_vec_dict[word]

embedding_layer = Embedding(V, N,
                            weights=[embedding_weights], mask_zero=True)

model = Sequential()
model.add(TimeDistributed(embedding_layer,
                          input_shape=(C, U)))

model.add(TimeDistributed(Bidirectional(LSTM(M // 2, return_sequences=True))))
model.add(TimeDistributed(GlobalMaxPooling1D()))
model.add(Bidirectional(LSTM(H // 2, return_sequences = True), merge_mode='concat'))
crf = CRF(num_tags, sparse_target=True)
model.add(crf)
model.compile('adam', loss = crf.loss_function, metrics=[crf.accuracy])

提供给此模型的数据的维度为(C, U, N),类型为int。 (即排除批量大小维度B)简而言之,批量中的每个样本都是长度为C的对话。每个对话都包含固定长度U的话语。最后,每个话语都由N个正面指数组成。 (即词汇表中相关单词的索引)

我甚至使用简单的for循环检查了整个数据集(在它转换为索引之后),并且找不到范围[0, 38545)之外的任何索引值。为什么-2^31的这种索引循环在训练期间出现?

1 个答案:

答案 0 :(得分:0)

我终于解决了这个问题。我在训练模型时使用批量生成,并且在批处理生成器函数中保留了未初始化的部分输入数组。

我不清楚为什么查找索引的确是-2147483648。但是,我认为,由于数组的未初始化部分包含的值大于词汇表大小,甚至包含32位整数的边界,因此会导致未定义的行为。

在我相应地正确初始化整个批输入之后,问题就解决了。下面是我使用的批处理生成器功能的简化版本。添加的初始化部分对其进行了注释,以突出显示上述内容。

def batch_generator(dataset_x, dataset_y, tag_indices, mini_batch_list, C, U,
                    num_tags, word_index_to_append, tag_index_to_append):
    num_mini_batches = len(mini_batch_list)

    index_list = [x for x in range(num_mini_batches)]
    random.shuffle(index_list)

    k = -1
    while True:
        k = (k + 1) % len(index_list)
        index = index_list[k]
        conversation_indices = mini_batch_list[index]

        num_conversations = len(conversation_indices)
        batch_features = numpy.empty(shape = (num_conversations, C, U),
                                     dtype = int)
        label_list = []

        for i in range(num_conversations):
            utterances = dataset_x[conversation_indices[i]]
            labels = copy.deepcopy(dataset_y[conversation_indices[i]])
            num_utterances = len(utterances)
            num_labels_to_append = max(0, C - len(labels))
            labels += [tag_index_to_append] * num_labels_to_append
            tags = to_categorical(labels, num_tags)
            del labels

            for j in range(num_utterances):
                utterance = copy.deepcopy(utterances[j])
                num_to_append = max(0, U - len(utterance))
                if num_to_append > 0:
                    appendage = [word_index_to_append] * num_to_append
                    utterance += appendage

                batch_features[i][j] = utterance

            # ADDING THE TWO LINES BELOW SOLVED THE ISSUE
            remaining_space = (C - num_utterances, U)
            batch_features[i][num_utterances:] = numpy.ones(remaining_space) *\
                                                 word_index_to_append
            label_list.append(tags)

        batch_labels = numpy.array(label_list)
        yield batch_features, batch_labels