附加15K +图像后出现Numpy Memory Error

时间:2018-05-27 16:20:33

标签: python-3.x numpy deep-learning numpy-ndarray

我正在为卷积神经网络创建深度学习模型。

我有90,000张图片,每张图片都有不同的尺寸。

我将它们调整为固定大小(512,512)并将它们附加到numpy数组。 但是,我超出内存限制导致内存错误。 我来到Spross Sparse矩阵作为一种方式,但我无法弄清楚如何这样做。

请指导我你真诚的, Vidit Shah

1 个答案:

答案 0 :(得分:1)

为什么你需要同时将它们全部留在内存中?如果您正在运行深度学习模型,那么您几乎肯定会使用随机梯度下降,这意味着您在任何给定的迭代中仅使用一小部分数据集。仅加载当前迭代所需的数据。您可以使用生成器轻松完成此操作,例如:

def data_generator():
    while True:
        for image in images:
            yield read(image)