如何不使用Google云端硬盘导入外部python文件

时间:2019-06-12 08:39:28

标签: python google-colaboratory

我最近开始在Google Colab从事Kaggle空中客车竞赛的工作。我以前已经在计算机上编写了代码并在本地运行,但是计算资源开始不够用-我搬到了Google Colab

我从使用!git clone http://url/repo.git克隆仓库开始,一切顺利,我的数据已插入/content/repo文件夹中。我遵循了有关将数据直接从kaggle复制到Google Colab的说明,而无需下载和上传数据。 文件的结构为:

/
- Content:
--- Airbus_project:
------ train.py
------ input:
----------- train_data (folder with images)
------ keras_frcnn:
----------- data_generators.py
----------- config.py

我还看到,如果要更改代码(!python3 train.py无法正常运行),运行!git pull效果不佳,因此我从文件train.py中复制了代码一格笔记本电脑。

该单元格当然是从导入一些模块开始的

from __future__ import division
import random
(...)
import os

import tensorflow as tf
from keras import backend as K
from keras.optimizers import Adam
from keras.layers import Input
from keras.models import Model
from keras_frcnn import config, data_generators
(...)

当我尝试运行它时,出现错误ModuleNotFoundError: No module named 'keras_frcnn'。我一直在寻求有关此问题的帮助,大多数结果建议使用Google云端硬盘并添加

from google.colab import drive
drive.mount('/content/gdrive')

但是由于空间不足(Kaggle数据约为35 GB),我无法将数据存储在Google云端硬盘中。

是否可以建议Google Colab在keras_frcnn文件夹(与train.py文件位于同一文件夹)中查找那些模块?

0 个答案:

没有答案