kera中的fit_generator,将所有内容加载到内存中

时间:2018-06-12 12:06:16

标签: python python-3.x keras deep-learning generator

我有原始数据(X_train,y_train),我正在将这些数据修改为其他内容。原始数据只是带有标签的图像。修改后的数据应该是Siamese网络的图像对,它们的数量很多,内存大约为30 GB。因此无法运行此函数来创建整个原始数据的对。因此,我使用keras fit_generator认为它只会加载该特定批次。

我在样本对上运行了model.fit和model.fit_generator,但我发现它们都使用相同数量的内存。所以,我想我的代码在使用fit_generator时会遇到一些问题。以下是相关代码。你能帮帮我吗?

以下代码:

    def create_pairs(X_train, y_train):
        tr_pairs = []
        tr_y = []

        y_train = np.array(y_train)
        digit_indices = [np.where(y_train == i)[0] for i in list(set(y_train))]

        for i in range(len(digit_indices)):
            n = len(digit_indices[i])
            for j in range(n):
                random_index = digit_indices[i][j]
                anchor_image = X_train[random_index]
                anchor_label = y_train[random_index]
                anchor_indices = [i for i, x in enumerate(y_train) if x == anchor_label]
                negate_indices = list(set(list(range(0,len(X_train)))) - set(anchor_indices))
                for k in range(j+1,n):
                    support_index = digit_indices[i][k]
                    support_image = X_train[support_index]
                    tr_pairs += [[anchor_image,support_image]]

                    negate_index = random.choice(negate_indices)
                    negate_image = X_train[negate_index]
                    tr_pairs += [[anchor_image,negate_image]]

                    tr_y += [1,0]


        return np.array(tr_pairs),np.array(tr_y) 



    def myGenerator():
        tr_pairs, tr_y = create_pairs(X_train, y_train)
        while 1:
            for i in range(110): # 1875 * 32 = 60000 -> # of training samples
                if i%125==0:
                    print("i = " + str(i))
                yield [tr_pairs[i*32:(i+1)*32][:, 0], tr_pairs[i*32:(i+1)*32][:, 1]], tr_y[i*32:(i+1)*32]




    model.fit_generator(myGenerator(), steps_per_epoch=110, epochs=2,
                  verbose=1, callbacks=None, validation_data=([te_pairs[:, 0], te_pairs[:, 1]], te_y), validation_steps=None, class_weight=None,
                  max_queue_size=10, workers=1, use_multiprocessing=False, shuffle=True, initial_epoch=0)

1 个答案:

答案 0 :(得分:1)

myGenerator返回一个生成器。

但是您应该注意到create_pairs正在将完整数据集加载到内存中。当您调用tr_pairs, tr_y = create_pairs(X_train, y_train)时,数据集已加载,因此正在使用内存资源。

myGenerator只是遍历已经在内存中的结构。

解决方案是让create_pairs成为一个发电机本身。

如果数据是一个numpy数组,我可以建议使用h5个文件从磁盘读取数据块。

http://docs.h5py.org/en/latest/high/dataset.html#chunked-storage