我正在运行Spark应用程序而且我总是遇到内存不足的问题..
Exception in thread "main" java.lang.OutOfMemoryError: unable to create new native thread
我在Linux上的节点集群中的本地[5]下运行我的程序,但它仍然给我这个错误..有人指出我如何在我的Spark应用程序中纠正它..
答案 0 :(得分:4)
在您的计算机上配置 ulimit
时出现问题。运行 ulimit -a
命令,您将看到以下结果。
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 63604
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 10240
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 63604
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
检查 open files
和 max user processes
配置的值。它应该很高。
您可以使用以下命令配置它们:
ulimit -n 10240
ulimit -u 63604
完成ulimits配置后。您可以启动应用程序以查看效果。