我正在尝试学习如何对18年NetCDF数据集进行一些计算,该数据集每年有1464个文件,每个文件的大小为1MB。我可以循环执行,但是我想用xarray测试dask的内置函数,看看它是否比传统的气候数据运算符更快,更高效。因此,我仅通过加载仅一年的文件进行测试,它给了我“太多文件错误”
big_ds = xr.open_mfdataset('path_to_folder/*')
我已经修改了打开文件的限制。
ulimit -a
>>core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 62527
max locked memory (kbytes, -l) 16384
max memory size (kbytes, -m) unlimited
open files (-n) 8000
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 62527
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited