我使用Spark来运行使用大量内存的C ++二进制文件。
我这样运行:
rdd.map(lambda x: subprocess.check_call(["./high_memory_usage_executable"]))
我一直收到-9
返回代码,这意味着由于内存不足,操作系统正在查杀可执行文件。
我已经设定:
spark.mesos.executor.memoryOverhead=20480
可执行文件应该需要大约10g(10240)的内存。所以memoryOverhead设置非常慷慨。
问题:
./high_memory_usage_executable
在运行。如何强制每个high_memory_usage_executable