是否可以使用SRdd读取1 GB以上的NetCDF文件?

时间:2016-05-20 05:18:15

标签: scala netcdf

我们使用SciSpark使用SRdd的概念来读取NetCDF文件。一旦我们厌倦了读取1gb以上的文件,我们就会收到错误。

val data = sc.OpenPath(“/ home / Project / TestData”,List(“rhum”))

这段代码有问题吗?

获取错误:java.lang.OutOfMemoryError:Java堆空间

1 个答案:

答案 0 :(得分:0)

如果我理解正确,SciSpark是Spark库,您可以使用spark-shellspark-submit运行代码。如果是这样,您只需要指定适当的内存选项,如下所示:

spark-shell --driver-memory 2g --executor-memory 8g