我正在运行jupyter/scipy-notebook
Docker容器。
我没有使用run命令限制分配给容器的内存。
但是,我看到发出docker stats
命令的是容器将其内存使用量限制为2 GB(16 GB可用!),即使进行复杂的计算也是如此。
这怎么可能?
答案 0 :(得分:1)
我在Mac OS上运行Docker,尝试读取超过600MB的CSV文件时Jupyter崩溃了。 遵循Andris Birkmanis的指示,可以通过增加Docker分配的内存大小来解决该问题。
答案 1 :(得分:0)
如果一切顺利,默认情况下,docker不应该默认限制内存使用量。因此,MEM USAGE / LIMIT
做docker stats [containerid]
dockerd
应该与总内存相同(在您的情况下为16Gb),尽管它不是免费的但是可用。
此外,默认情况下无法设置调用docker run
的泊坞内存限制,
所以,我唯一可以做的就是在-m, --memory="" Memory limit (format: <number>[<unit>]). Number is a positive integer. Unit can be one of b, k, m, or g. Minimum is 4M.
--memory-swap="" Total memory limit (memory + swap, format: <number>[<unit>]). Number is a positive integer. Unit can be one of b, k, m, or g.
--memory-reservation="" Memory soft limit (format: <number>[<unit>]). Number is a positive integer. Unit can be one of b, k, m, or g.
--kernel-memory="" Kernel memory limit (format: <number>[<unit>]). Number is a positive integer. Unit can be one of b, k, m, or g. Minimum is 4M.
docker run --memory-reservation=10g ...
有关详细信息,请查看Docker documentation run-time options
检查您的{{1}},然后查看。
答案 2 :(得分:0)