我有原始数据(X_train,y_train),我正在将这些数据修改为其他内容。原始数据只是带有标签的图像。修改后的数据应该是Siamese网络的图像对,它们的数量很多,内存大约为30 GB。因此无法运行此函数来创建整个原始数据的对。因此,我使用keras fit_generator认为它只会加载该特定批次。
我在样本对上运行了model.fit和model.fit_generator,但我发现它们都使用相同数量的内存。所以,我想我的代码在使用fit_generator时会遇到一些问题。以下是相关代码。你能帮帮我吗?
以下代码:
def create_pairs(X_train, y_train):
tr_pairs = []
tr_y = []
y_train = np.array(y_train)
digit_indices = [np.where(y_train == i)[0] for i in list(set(y_train))]
for i in range(len(digit_indices)):
n = len(digit_indices[i])
for j in range(n):
random_index = digit_indices[i][j]
anchor_image = X_train[random_index]
anchor_label = y_train[random_index]
anchor_indices = [i for i, x in enumerate(y_train) if x == anchor_label]
negate_indices = list(set(list(range(0,len(X_train)))) - set(anchor_indices))
for k in range(j+1,n):
support_index = digit_indices[i][k]
support_image = X_train[support_index]
tr_pairs += [[anchor_image,support_image]]
negate_index = random.choice(negate_indices)
negate_image = X_train[negate_index]
tr_pairs += [[anchor_image,negate_image]]
tr_y += [1,0]
return np.array(tr_pairs),np.array(tr_y)
def myGenerator():
tr_pairs, tr_y = create_pairs(X_train, y_train)
while 1:
for i in range(110): # 1875 * 32 = 60000 -> # of training samples
if i%125==0:
print("i = " + str(i))
yield [tr_pairs[i*32:(i+1)*32][:, 0], tr_pairs[i*32:(i+1)*32][:, 1]], tr_y[i*32:(i+1)*32]
model.fit_generator(myGenerator(), steps_per_epoch=110, epochs=2,
verbose=1, callbacks=None, validation_data=([te_pairs[:, 0], te_pairs[:, 1]], te_y), validation_steps=None, class_weight=None,
max_queue_size=10, workers=1, use_multiprocessing=False, shuffle=True, initial_epoch=0)
答案 0 :(得分:1)
myGenerator
返回一个生成器。
但是您应该注意到create_pairs
正在将完整数据集加载到内存中。当您调用tr_pairs, tr_y = create_pairs(X_train, y_train)
时,数据集已加载,因此正在使用内存资源。
myGenerator
只是遍历已经在内存中的结构。
解决方案是让create_pairs
成为一个发电机本身。
如果数据是一个numpy数组,我可以建议使用h5
个文件从磁盘读取数据块。
http://docs.h5py.org/en/latest/high/dataset.html#chunked-storage