即使使用较小的数据集后,如何解决使用可用RAM后Google Colab中会话崩溃的问题

时间:2019-06-11 02:40:13

标签: crash ram using google-colaboratory availability

即使在使用小型数据集之后,我在google colab中的会话仍连续崩溃,显示“使用可用RAM后,您的会话已崩溃”。 测试尺寸= 99989 * 2 火车尺寸= 299989 * 2

我正在寻找解决此问题的方法,但找不到解决方法。

enter code here

corpus = []
for i in range(0, 299989):
    SentimentText = re.sub('[^a-zA-Z]', ' ', dataset1['SentimentText'][i])
    SentimentText = re.sub('<[^<]+?>', ' ', dataset1['SentimentText'][i])
    tokenizer = RegexpTokenizer(r'\w+')
    SentimentText = tokenizer.tokenize(SentimentText)
    SentimentText = ' '.join(SentimentText)
    corpus.append(SentimentText)

X_train = cv.fit_transform(corpus)
from sklearn.feature_extraction import text
X_train = text.TfidfTransformer().fit_transform(X_train)

X_train = X_train.toarray()
y_train = dataset.iloc[:, 1].values

执行第三部分后,错误显示会话崩溃。

1 个答案:

答案 0 :(得分:0)

尝试从编辑菜单打开GPU,然后选择笔记本设置 在硬件加速器中选择GPU 这样会增加RAM的大小