TL; DR 我的模型训练了1个时期-用于测试。但是,如果经过多次评估,则每次我使用相同的训练数据运行evaluate_generator
方法 时,其准确性都会有所不同。为什么会发生这种情况,并且在相同模型上多次评估相同训练数据时,有什么方法可以获得相同的准确率?
我正在研究对话行为分类的语言问题,我的模型基于this论文。使用keras
和keras_contrib
存储库提供的工具,我正在复制精确的模型,但是我对为什么评估给出不同的准确率存在疑问。
作为参考,我训练了单个时期的模型,然后使用save_load_utils
模块提供的实用程序keras_contrib
将训练后的模型保存在文件中。但是,每当我使用这些权重运行模型(针对单个时期进行训练)时,我得到的准确率就会有所不同。我已经尝试了5-10次,它的范围在68%到74%之间,相当大。当我加载预训练的(即1个历元)模型权重时,我期望获得相同的精度。 (即没有浮点数的精度差异)。但是,按此速率计算的结果差异表明我做错了某些事情。
任何人都不知道为什么model.evaluate_generator
方法每次以相同的权重运行都会产生如此不同的结果,即使我使用相同的,经过1个历元训练的模型的权重来评估它?有什么办法可以修正我的评估代码,以使每次评估时针对相同训练模型获得的准确性都相同? (即,考虑到由于浮点运算引起的任何细微差异)
下面是所有相关代码。与标准StackOverflow问题相比,代码示例 更长,但是我想包括代码的所有相关部分。向Python程序员表示歉意,以保证代码的长度。我是Python新手,我可能可以用更简洁,Python惯用的方式编写整个代码。
模型准备代码:
def prepare_kadjk_model(max_mini_batch_size,
max_conversation_length, timesteps, num_word_dimensions,
word_to_index, word_vec_dict,
num_tags):
#Hyperparameters
m = timesteps
h = timesteps
model = Sequential()
dictionary_size = len(word_to_index) + 1
embedding_weights = numpy.zeros((dictionary_size, num_word_dimensions))
for word, index in word_to_index.items():
embedding_weights[index, :] = word_vec_dict[word]
# define inputs here
embedding_layer = Embedding(dictionary_size, num_word_dimensions,
weights=[embedding_weights],
embeddings_regularizer=regularizers.l2(0.0001))
model.add(TimeDistributed(embedding_layer,
input_shape=(max_conversation_length, timesteps)))
model.add(TimeDistributed(Bidirectional(LSTM(m // 2, return_sequences=True,
kernel_regularizer=regularizers.l2(0.0001)))))
model.add(TimeDistributed(Dropout(0.2)))
model.add(TimeDistributed(GlobalMaxPooling1D()))
model.add(Bidirectional(LSTM(h // 2, return_sequences = True,
kernel_regularizer=regularizers.l2(0.0001)), merge_mode='concat'))
model.add(Dropout(0.2))
crf = CRF(num_tags, sparse_target=False, kernel_regularizer=regularizers.l2(0.0001))
model.add(crf)
model.compile(optimizer, loss = crf_loss,
metrics=[crf_accuracy])
return model
批处理准备功能:
def form_mini_batches(dataset_x, max_mini_batch_size):
num_conversations = len(dataset_x)
# Form mini batches of equal-length conversations
mini_batches = {}
for i in range(num_conversations):
num_utterances = len(dataset_x[i])
if num_utterances in mini_batches:
mini_batches[num_utterances].append( i )
else:
mini_batches[num_utterances] = [ i ]
# Enforce max_batch_size on previously formed mini batches
mini_batch_list = []
for conversations in mini_batches.values():
mini_batch_list += [conversations[x: x + max_mini_batch_size] for x in range(0, len(conversations), max_mini_batch_size)]
return mini_batch_list
def kadjk_batch_generator(dataset_x, dataset_y, tag_indices,
mini_batch_list, max_conversation_length,
timesteps, num_word_dimensions, num_tags,
word_index_to_append, tag_index_to_append):
num_mini_batches = len(mini_batch_list)
# Shuffle the order of batches
index_list = [x for x in range(num_mini_batches)]
random.shuffle(index_list)
k = -1
while True:
k = (k + 1) % len(index_list)
index = index_list[k]
conversation_indices = mini_batch_list[index]
num_conversations = len(conversation_indices)
batch_features = numpy.empty(shape = (num_conversations, max_conversation_length, timesteps),
dtype = int)
label_list = []
for i in range(num_conversations):
utterances = dataset_x[conversation_indices[i]]
labels = copy.deepcopy(dataset_y[conversation_indices[i]])
num_utterances = len(utterances)
num_labels_to_append = max(0, max_conversation_length - len(labels))
labels += [tag_index_to_append] * num_labels_to_append
tags = to_categorical(labels, num_tags)
del labels
for j in range(num_utterances):
utterance = copy.deepcopy(utterances[j])
num_to_append = max(0, timesteps - len(utterance))
if num_to_append > 0:
appendage = [word_index_to_append] * num_to_append
utterance += appendage
batch_features[i][j] = utterance
del utterance
remaining_space = (max_conversation_length - num_utterances, timesteps)
batch_features[i][num_utterances:] = numpy.ones(remaining_space) * word_index_to_append
label_list.append(tags)
batch_labels = numpy.array(label_list)
del label_list
yield batch_features, batch_labels
训练功能:
def train_kadjk(model, training, validation, num_epochs_to_train, tag_indices, max_mini_batch_size,
max_conversation_length, timesteps, num_word_dimensions, num_tags,
end_of_line_word_index, uninterpretable_label_index):
training_mini_batch_list = form_mini_batches(training[0], max_mini_batch_size)
validation_mini_batch_list = form_mini_batches(validation[0], max_mini_batch_size)
num_training_steps = len(training_mini_batch_list)
num_validation_steps = len(validation_mini_batch_list)
early_stop = EarlyStopping(patience = 5)
change_learning_rate = LearningRateScheduler(learning_rate_scheduler)
model.fit_generator(kadjk_batch_generator(training[0], training[1], tag_indices,
training_mini_batch_list, max_conversation_length,
timesteps, num_word_dimensions, num_tags,
end_of_line_word_index, uninterpretable_label_index),
steps_per_epoch = num_training_steps,
epochs = num_epochs_to_train,
validation_data = kadjk_batch_generator(validation[0], validation[1],
tag_indices,
validation_mini_batch_list,
max_conversation_length, timesteps,
num_word_dimensions, num_tags,
end_of_line_word_index,
uninterpretable_label_index),
validation_steps = num_validation_steps,
callbacks = [early_stop, change_learning_rate])
评估功能:
def evaluate_kadjk(model, testing, tag_indices, max_mini_batch_size, max_conversation_length,
timesteps, num_word_dimensions, num_tags,
end_of_line_word_index, uninterpretable_label_index):
testing_mini_batch_list = form_mini_batches(testing[0], max_mini_batch_size)
num_testing_steps = len(testing_mini_batch_list)
score = model.evaluate_generator(kadjk_batch_generator(testing[0], testing[1],
tag_indices,
testing_mini_batch_list,
max_conversation_length, timesteps,
num_word_dimensions, num_tags,
end_of_line_word_index,
uninterpretable_label_index),
steps = num_testing_steps)
print("len(score):" + str(len(score)))
print("score:" + str(score))
您可以浏览here,以更全面地了解我正在研究的研究生论文项目,但是我试图为任何能提供帮助的人提供所需的所有相关功能。
答案 0 :(得分:0)
有多种原因可能会发生这种情况,每个原因都源自随机化过程某些方面的大多数DL模型中的策略。大多数输入例程将包括shuffle
操作,将输入集的顺序随机化以平衡早期训练。许多模型类型取决于初始权重以某种方式进行区分(以允许对感知器进行差异训练),这通常是通过一些随机函数来完成的。
这些情况中的任何一种都会在训练中产生不同的结果,尤其是早期训练。理想情况下,所有训练运行都会收敛到很小的精度范围,但是早期结果会有所不同。这不被认为是问题。由于您没有提供任何执行跟踪信息(例如转储所有初始权重或检查输入顺序),因此我们无法确定这是否是您的问题。
如果您需要可重现的结果,则需要深入研究支持代码,确定使用RNG(随机数生成器)的位置,然后执行以下两项操作之一:
在我的职业生涯中,我们通常会设置随机种子,因为当我们完成控制怪胎时很容易将其注释掉。 :-)我们不得不多次研究代码,因为我们代码的不同层有时会使用多个RNG;我们必须为他们每个人播种。在Python和其他大多数语言中,调用很简单,例如
random.seed(1) # Sets 1 as the initial seed for the RNG.
答案 1 :(得分:0)
我深入研究了keras
的Github问题,并在this评论中发现了可能的错误原因。
很显然,类似于批处理规范化层,使用Dropout
层会导致变化,正如我在问题中所述。 Dropout
层使神经元在训练期间掉落。因此,当模型的训练结束时,并不是最初编译的模型中的所有神经元都存在。
如果使用功能keras_contrib.save_load_utils.save_all_weights
保存了模型权重,则将保存模型的权重。但是,一旦终止该过程而不保存最终的神经元配置(不仅是权重),模型的最终配置就会丢失。如here所述,save_all_weights
是我用来保存模型的函数,它不会保存模型本身的配置。
因此,如果您在不同的过程中编译模型,并使用keras_contrib.save_load_utils.load_all_weights
加载保存的权重,即使您使用与先前运行中测试过的数据相同的数据测试了模型,编译模型具有一些额外的神经元,这些原始神经元在训练原始模型时会掉线。这种配置上的差异,再加上可能使用随机权重对它们进行初始化(在这种情况下为 )的事实,导致每次运行时评估都给出不同的准确率。
解决方案似乎不仅是记录重量,还记录所有配置。只需使用模型实例的save
方法而不是keras_contrib.save_load_utils.save_all_weights
即可完成。显然,要以不同的过程重新加载整个模型,应使用keras.models.load_model
而不是keras_contrib.save_load_utils.load_all_weights
。