将神经网络转换为批量训练

时间:2020-10-29 05:24:37

标签: python deep-learning neural-network recurrent-neural-network

我有一个在线上的神经网络代码,所以我对它的完整理解不完全了解。我正在使用NN进行命名实体识别。

这是我的单词嵌入的大小

wordEmbeddings.shape (38419,100)

我正在使用以下NN

words_input = Input(shape=(None,),dtype='int32',name='words_input')
words = Embedding(input_dim=wordEmbeddings.shape[0], output_dim=wordEmbeddings.shape[1],  weights=[wordEmbeddings], trainable=False)(words_input)

casing_input = Input(shape=(None,), dtype='int32', name='casing_input')
casing = Embedding(output_dim=caseEmbeddings.shape[1], input_dim=caseEmbeddings.shape[0], weights=[caseEmbeddings], trainable=False)(casing_input)

character_input=Input(shape=(None,52,),name='char_input')
embed_char_out=TimeDistributed(Embedding(len(char2Idx),30,embeddings_initializer=RandomUniform(minval=-0.5, maxval=0.5)), name='char_embedding')(character_input)
dropout= Dropout(0.5)(embed_char_out)
conv1d_out= TimeDistributed(Conv1D(kernel_size=3, filters=30, padding='same',activation='tanh', strides=1))(dropout)
maxpool_out=TimeDistributed(MaxPooling1D(52))(conv1d_out)
char = TimeDistributed(Flatten())(maxpool_out)
char = Dropout(0.5)(char)

output = concatenate([words, casing,char])
output = Bidirectional(LSTM(200, return_sequences=True, dropout=0.50, recurrent_dropout=0.25))(output)
output = TimeDistributed(Dense(len(label2Idx), activation='softmax'))(output)

model = Model(inputs=[words_input, casing_input,character_input], outputs=[output])
model.compile(loss='sparse_categorical_crossentropy', optimizer='nadam')
model.summary()

当我尝试训练模型时,它说我的GPU耗尽了:tensorflow.python.framework.errors_impl.ResourceExhaustedError

用词嵌入代码使用的是wordEmbedding.shape [0],即38419。 以及如何将其转换为批量培训?

1 个答案:

答案 0 :(得分:0)

在特定时期,NN使用的数组(5828,10,200)超过了1千万(太大了,这是我对GPU的极限)。

我编写了代码,如果在任何地方都超出了此限制,它将把批处理分为两部分。因此,最后我得到的所有批次的nd数组都小于1千万,然后在我的GPU上成功运行。