当我加载自己的csv时,我在Jupyter笔记本中发现了奇怪的行为。在一个GCE它工作,另一个它工作正常。也许,我需要更好地设置我的实例 - 也许,我在这里错过了一些微不足道的东西。
我的代码就像这样(见下文) - 大多数是基本的教程。存储桶和文件名很好,因为它适用于不同的实例。新的GCE有更多的RAM和更多的CPU。但我不认为这应该是问题所在。什么想法可能会出错? (问题出在python 2和3上)
from google.datalab import Context
import google.datalab.bigquery as bq
import google.datalab.storage as storage
import pandas as pd
try:
from StringIO import StringIO
except ImportError:
from io import BytesIO as StringIO
%%gcs read --object gs://ls_w/tmax_out_save.csv --variable bla # crashes here
我也试过这个
bla = storage.Object('ls_w', 'tmax_out_save.csv').read_stream() # crashes here
答案 0 :(得分:0)
我已经通过创建新实例解决了这个问题。我想在创建实例时出现了错误。