我正在使用dask.distributed
(使人并行的任务)并行化一些代码。
。
from dask.distributed import Client, LocalCluster
cluster = LocalCluster(n_workers=2, threads_per_worker=1,memory_limit =8e9)
client = Client(cluster)
。
distributed.worker - WARNING - Memory use is high but worker has no data to store to disk.
Perhaps some other process is leaking memory? Process memory: 6.21 GB -- Worker memory limit: 8.00 GB
建议工作人员使用的RAM的一部分在不同文件之间不是freed
(我想是剩余的过滤中间物...。)
在开始处理下一个图像之前,是否有办法释放工作程序的内存?我必须在运行的任务之间运行garbage collector
周期吗?
我在工作程序运行的函数末尾包含了gc.collect()
调用,但是并没有消除警告。
非常感谢您的帮助!