RAM在Google Colab中崩溃

时间:2020-04-23 17:07:45

标签: python-3.x google-colaboratory

我正在研究用于机器学习/深度学习技术的图像数据集。目前,我的图像数据大小为20 GB。而Google colab最多可提供25GB RAM。因此,google colab每次都崩溃。请注意,我需要应用诸如PCA之类的降维技术,该技术要求所有数据一次都出现在RAM中。否则,我可能会想到将训练数据分成更小的部分。

如何获得更多RAM或其他任何技术来解决此问题?有人可以帮忙吗?

1 个答案:

答案 0 :(得分:1)

我认为您可以将数据下载到本地并使用this example中显示的tf.keras.preprocessing.image.ImageDataGenerator

根据本地文件夹的路径更新示例中的base_dirImageDataGenerator的作用是,一次仅加载少量图像(您可以设置编号,称为batch_size)并进行处理。请检查示例以获取更多详细信息。