我正在尝试在jupyter笔记本中运行深度学习模型,并永久使用它,并且在培训期间还会死掉内核。所以我想在Google Colab上运行它。我已经学到了一些互联网上可用的基础知识,但是根本不能帮助我。模型从模块获取数据集, 此链接https://github.com/awslabs/handwritten-text-recognition-for-apache-mxnet/blob/master/ocr/utils/iam_dataset.py具有提取和预处理数据集以从本地计算机进行整理的模块。我已经将数据集上载到了Gdrive中,现在我想更改路径,以便此模块找到该“数据集”文件夹。我已经坚持了5天,现在我一无所有。
答案 0 :(得分:1)
我建议您不要将数据集从GDrive直接加载到colab。这样会增加数据集的加载时间。
Google Colab为您的工作提供了一些本地存储(大约70 GB),显示在RAM栏下方的右上角。将您的数据集带到该存储。这是您可以执行的操作:-
import zipfile
from google.colab import drive
zip_ref = zipfile.ZipFile("/content/drive/My Drive/dataset.zip", 'r')
zip_ref.extractall("/content/")
zip_ref.close()
请注意,应压缩整个数据集。
它将比您尝试的方法快20倍以上...
上面的zipfile.ZipFile()函数的格式:-
zip_ref = zipfile.ZipFile(“ / content / drive / GDrive中的压缩文件位置 ”,'r')
如果您在colab界面中单击左侧的文件夹图标,则应该在其中看到您的数据集。
然后您可以使用filepath ='/ content / dataset'
访问数据集