为什么Goggle colab在加载训练数据时会崩溃

时间:2020-02-09 07:05:37

标签: python google-colaboratory

我的本​​地计算机上有一个大小为917 MB的文件夹,带有38个带有图像的子文件夹。我将其上传到了我的驱动器/ Colab笔记本中的Google驱动器中,并在安装驱动器后开始执行python代码。文件夹中的图像大小为256x256。我将它们的尺寸调整为128x128,然后使用以下代码加载训练图像:

try:
print("[INFO] Loading Training images ...")
root_dir = listdir(Path_DBTrain)


for plant_folder in root_dir :
    plant_disease_folder_list = listdir(f"{Path_DBTrain}")


for plant_disease_folder in plant_disease_folder_list:
    print(f"[INFO] Processing {plant_disease_folder} ...")
    plant_disease_image_list = listdir(f"{Path_DBTrain}/{plant_disease_folder}/")

    for im in plant_disease_image_list:
        image_directory = f"{Path_DBTrain}/{plant_disease_folder}/{im}"
        if image_directory.endswith(".jpg") == True or image_directory.endswith(".JPG") == True or image_directory.endswith(".png") == True:
            image_list_train.append(convert_image_to_array(image_directory))
            label_list_train.append(plant_disease_folder)
print("[INFO] Training Images loading completed")  

例外,例如e: print(f“加载训练图像时出错:{e}”)

Path_DBTrain在“我的驱动器/ Colab笔记本”中具有该文件夹的路径

我的问题是:

1)为什么加载训练图像会花费很多时间?在只有8GB RAM的本地计算机上执行此代码不需要花费时间

2)为什么Google colab会利用所有12GB的可用RAM并崩溃?

3)如果文件夹大小为917 MB,那么如何使用所有12 GB的RAM?

0 个答案:

没有答案