我正在为卷积神经网络创建深度学习模型。
我有90,000张图片,每张图片都有不同的尺寸。
我将它们调整为固定大小(512,512)并将它们附加到numpy数组。 但是,我超出内存限制导致内存错误。 我来到Spross Sparse矩阵作为一种方式,但我无法弄清楚如何这样做。
请指导我你真诚的, Vidit Shah
答案 0 :(得分:1)
为什么你需要同时将它们全部留在内存中?如果您正在运行深度学习模型,那么您几乎肯定会使用随机梯度下降,这意味着您在任何给定的迭代中仅使用一小部分数据集。仅加载当前迭代所需的数据。您可以使用生成器轻松完成此操作,例如:
def data_generator():
while True:
for image in images:
yield read(image)