为什么"内存在使用"在Spark Standalone中= 1g?

时间:2016-07-30 14:47:38

标签: apache-spark pyspark apache-spark-standalone

我使用Standalone运行Apache Spark,当我连接到myip:8080时,我总会看到类似"正在使用的内存:总共120.0 GB,使用1.0 GB和#34;。为什么只有更多的内存可用才能使用1Gb?是否有可能(或希望)增加实际使用的内存量?

0 个答案:

没有答案