即使我将我的Google Drive(及其中的数据集)定义为google colab,但是当我运行我的代码时,也会出现此错误:FileNotFoundError:[Errno 2]没有这样的文件或目录:'content / drive / My Drive /....
我已经在google colab中定义了google驱动器,我可以通过google colab访问它,但是在运行代码时出现此错误
from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
model=Sequential()
model.add(Convolution2D(32,3,3,input_shape=(64,64,3),activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Convolution2D(32,3,3,activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dense(output_dim=128,activation='relu'))
model.add(Dense(output_dim=1,activation='sigmoid'))
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])
from keras.preprocessing.image import ImageDataGenerator
train_datagen=ImageDataGenerator(
rescale=1./255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True)
test_datagen=ImageDataGenerator(rescale=1./255)
training_set=train_datagen.flow_from_directory(
directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/training_set',
target_size=(64,64),
batch_size=32,
class_mode='binary')
test_set=test_datagen.flow_from_directory(
directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
target_size=(64,64),
batch_size=32,
class_mode='binary')
#train
model.fit_generator(
training_set,
samples_per_epoch=8000,
nb_epoch=2,
validation_data=test_set,
nb_val_samples=1000)
import numpy as np
from keras.preprocessing import image
test_image=image.load_img('sunn.jpg',target_size=(64,64))
test_image=image.img_to_array(test_image)
test_image=np.expand_dims(test_image,axis=0)
result=model.predict(test_image)
training_set.class_indices
if result[0][0] >= 0.5:
prediction='dog'
else:
prediction='cat'
print(prediction)
答案 0 :(得分:1)
安装后,移至数据集文件夹。
cd content/drive/My Drive/Convolutional_Neural_Networks/dataset/
请勿使用!。
然后将目录设置为./training_set
答案 1 :(得分:0)
我认为您在/
路径中缺少前导/content/drive...
。
通常通过以下方式挂载您的云端硬盘文件
from google.colab import drive
drive.mount('/content/drive')
https://colab.research.google.com/notebooks/io.ipynb#scrollTo=u22w3BFiOveA
答案 2 :(得分:0)
我一直在尝试,对于那些好奇的人,我无法使用目录驱动器中带有Google驱动器内文件夹的目录流。 collab文件环境无法读取路径,并显示“文件夹不存在”错误。我一直在尝试解决问题并搜索堆栈,在Google collaborative和Deep learnin on Google Colab: loading large image dataset is very long, how to accelerate the process?处也张贴了类似的问题,但没有有效的解决方案,由于某种原因,许多人对提出要求的人持否定态度。
我发现在google colab中读取20k图像的唯一解决方案是上传它们,然后对其进行处理,浪费了两个可悲的时间。这是有道理的,google用id标识驱动器内部的东西,来自目录的流要求它既要标识数据集,又要标识具有文件夹绝对路径的类,这与google drives标识方法不兼容。我猜想并选择使用谷歌云环境作为替代方案。我们免费获得了很多。这是我的新手对情况的了解,如果有误,请纠正我。
edit1:我能够使用Google collab上目录中的流,google也会用路径识别事物,问题是,如果使用os.getcwd(),它将无法正常工作,如果使用它将告诉您当前的工作目录是“ / content”,而实际上是“ / content / drive /我的驱动器/foldersinsideyourdrive/...../folderthathasyourcollabnotebook/。如果在traingenerator中更改了路径,则它包括该内容设置,而忽略os,它是可行的,但是,即使使用目录中的流,但我仍然遇到ram问题,无论如何也无法训练我的cnn,但这可能只是我发生的事情。
答案 3 :(得分:0)
来自google.colab导入驱动器 drive.mount('/ content / drive')
使用上述代码,您可以将驱动器加载到colab中, 何时加载图像使用:
directory='drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
不是这个:
directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
对于keras imagedatagenerator数据集strcut:
答案 4 :(得分:0)
所以,我从Colab的默认命令开始
from google.colab import drive
drive.mount('/gdrive', force_remount=True)
我所做的主要更改是在这里
img_width, img_height = 64, 64
train_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/training_set'
validation_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/test_set'
from tensorflow.keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(
rescale=1./255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True)
test_datagen = ImageDataGenerator(rescale=1./255)
train_generator = train_datagen.flow_from_directory(
train_data_dir,
target_size=(64, 64),
batch_size=32,
class_mode='binary')
validation_generator = test_datagen.flow_from_directory(
validation_data_dir,
target_size=(64, 64),
batch_size=32,
class_mode='binary')
classifier.fit_generator(
train_generator,
steps_per_epoch=8000, # Number of images in train set
epochs=25,
validation_data=validation_generator,
validation_steps=2000)
这对我有用,我希望这对某人有帮助。 P.s.忽略缩进。
答案 5 :(得分:0)
由于某种原因,您必须%cd进入google驱动器文件夹,然后执行代码才能访问驱动器中的文件或在其中写入文件。
首先安装您的Google驱动器:
from google.colab import drive
drive.mount('/gdrive', force_remount=True)
然后将CD插入您的Google驱动器,然后运行您的代码:
%cd /content/drive/My\ Drive/
directory='./Convolutional_Neural_Networks/dataset/training_set'
答案 6 :(得分:0)
尝试删除“内容”,在这里进行了 1 小时的故障排除后,它对我有用
cd drive/My Drive/dissertation