Google Colab无法访问驱动器内容

时间:2019-01-19 16:24:43

标签: keras deep-learning conv-neural-network google-colaboratory

即使我将我的Google Drive(及其中的数据集)定义为google colab,但是当我运行我的代码时,也会出现此错误:FileNotFoundError:[Errno 2]没有这样的文件或目录:'content / drive / My Drive /....

我已经在google colab中定义了google驱动器,我可以通过google colab访问它,但是在运行代码时出现此错误

from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
model=Sequential()
model.add(Convolution2D(32,3,3,input_shape=(64,64,3),activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Convolution2D(32,3,3,activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dense(output_dim=128,activation='relu'))
model.add(Dense(output_dim=1,activation='sigmoid'))
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

from keras.preprocessing.image import ImageDataGenerator
train_datagen=ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)
test_datagen=ImageDataGenerator(rescale=1./255)

training_set=train_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/training_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')
test_set=test_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')

#train
model.fit_generator(
    training_set,
    samples_per_epoch=8000,
    nb_epoch=2,
    validation_data=test_set,
    nb_val_samples=1000)

import numpy as np
from keras.preprocessing import image
test_image=image.load_img('sunn.jpg',target_size=(64,64))
test_image=image.img_to_array(test_image)
test_image=np.expand_dims(test_image,axis=0)
result=model.predict(test_image)
training_set.class_indices
if result[0][0] >= 0.5:
    prediction='dog'
else:
    prediction='cat'
print(prediction)

7 个答案:

答案 0 :(得分:1)

安装后,移至数据集文件夹。

cd content/drive/My Drive/Convolutional_Neural_Networks/dataset/

请勿使用!。 然后将目录设置为./training_set

答案 1 :(得分:0)

我认为您在/路径中缺少前导/content/drive...

通常通过以下方式挂载您的云端硬盘文件

from google.colab import drive
drive.mount('/content/drive')

https://colab.research.google.com/notebooks/io.ipynb#scrollTo=u22w3BFiOveA

答案 2 :(得分:0)

我一直在尝试,对于那些好奇的人,我无法使用目录驱动器中带有Google驱动器内文件夹的目录流。 collab文件环境无法读取路径,并显示“文件夹不存在”错误。我一直在尝试解决问题并搜索堆栈,在Google collaborativeDeep learnin on Google Colab: loading large image dataset is very long, how to accelerate the process?处也张贴了类似的问题,但没有有效的解决方案,由于某种原因,许多人对提出要求的人持否定态度。

我发现在google colab中读取20k图像的唯一解决方案是上传它们,然后对其进行处理,浪费了两个可悲的时间。这是有道理的,google用id标识驱动器内部的东西,来自目录的流要求它既要标识数据集,又要标识具有文件夹绝对路径的类,这与google drives标识方法不兼容。我猜想并选择使用谷歌云环境作为替代方案。我们免费获得了很多。这是我的新手对情况的了解,如果有误,请纠正我。

edit1:我能够使用Google collab上目录中的流,google也会用路径识别事物,问题是,如果使用os.getcwd(),它将无法正常工作,如果使用它将告诉您当前的工作目录是“ / content”,而实际上是“ / content / drive /我的驱动器/foldersinsideyourdrive/...../folderthathasyourcollabnotebook/。如果在traingenerator中更改了路径,则它包括该内容设置,而忽略os,它是可行的,但是,即使使用目录中的流,但我仍然遇到ram问题,无论如何也无法训练我的cnn,但这可能只是我发生的事情。

答案 3 :(得分:0)

来自google.colab导入驱动器 drive.mount('/ content / drive')

使用上述代码,您可以将驱动器加载到colab中, 何时加载图像使用:

directory='drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',

不是这个:

directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',

对于keras imagedatagenerator数据集strcut:


答案 4 :(得分:0)

所以,我从Colab的默认命令开始

from google.colab import drive
drive.mount('/gdrive', force_remount=True)

我所做的主要更改是在这里

img_width, img_height = 64, 64
train_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/training_set'
validation_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/test_set'

from tensorflow.keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)

test_datagen = ImageDataGenerator(rescale=1./255)

train_generator = train_datagen.flow_from_directory(
 train_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
 validation_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

classifier.fit_generator(
 train_generator,
 steps_per_epoch=8000, # Number of images in train set
 epochs=25,
 validation_data=validation_generator,
 validation_steps=2000)

这对我有用,我希望这对某人有帮助。 P.s.忽略缩进。

答案 5 :(得分:0)

由于某种原因,您必须%cd进入google驱动器文件夹,然后执行代码才能访问驱动器中的文件或在其中写入文件。

首先安装您的Google驱动器:

from google.colab import drive
drive.mount('/gdrive', force_remount=True)

然后将CD插入您的Google驱动器,然后运行您的代码:

%cd /content/drive/My\ Drive/
directory='./Convolutional_Neural_Networks/dataset/training_set'

答案 6 :(得分:0)

尝试删除“内容”,在这里进行了 1 小时的故障排除后,它对我有用

cd drive/My Drive/dissertation