尝试使用dask

时间:2018-10-17 16:39:55

标签: python dask python-xarray

我正在尝试学习如何对18年NetCDF数据集进行一些计算,该数据集每年有1464个文件,每个文件的大小为1MB。我可以循环执行,但是我想用xarray测试dask的内置函数,看看它是否比传统的气候数据运算符更快,更高效。因此,我仅通过加载仅一年的文件进行测试,它给了我“太多文件错误”

big_ds = xr.open_mfdataset('path_to_folder/*')

我已经修改了打开文件的限制。

 ulimit -a
 >>core file size          (blocks, -c) 0
   data seg size           (kbytes, -d) unlimited
   scheduling priority             (-e) 0
   file size               (blocks, -f) unlimited
   pending signals                 (-i) 62527
   max locked memory       (kbytes, -l) 16384
   max memory size         (kbytes, -m) unlimited
   open files                      (-n) 8000
   pipe size            (512 bytes, -p) 8
   POSIX message queues     (bytes, -q) 819200
   real-time priority              (-r) 0
   stack size              (kbytes, -s) 8192
   cpu time               (seconds, -t) unlimited
   max user processes              (-u) 62527
   virtual memory          (kbytes, -v) unlimited
   file locks                      (-x) unlimited

0 个答案:

没有答案