从GCS

时间:2018-03-23 11:07:30

标签: python google-cloud-storage jupyter-notebook google-compute-engine google-cloud-datalab

当我加载自己的csv时,我在Jupyter笔记本中发现了奇怪的行为。在一个GCE它工作,另一个它工作正常。也许,我需要更好地设置我的实例 - 也许,我在这里错过了一些微不足道的东西。

我的代码就像这样(见下文) - 大多数是基本的教程。存储桶和文件名很好,因为它适用于不同的实例。新的GCE有更多的RAM和更多的CPU。但我不认为这应该是问题所在。什么想法可能会出错? (问题出在python 2和3上)

from google.datalab import Context
import google.datalab.bigquery as bq
import google.datalab.storage as storage
import pandas as pd
try:
  from StringIO import StringIO
except ImportError:
  from io import BytesIO as StringIO
%%gcs read --object gs://ls_w/tmax_out_save.csv --variable bla  # crashes here

我也试过这个

bla = storage.Object('ls_w', 'tmax_out_save.csv').read_stream() # crashes here

1 个答案:

答案 0 :(得分:0)

我已经通过创建新实例解决了这个问题。我想在创建实例时出现了错误。