标签: apache-spark pyspark apache-spark-standalone
我使用Standalone运行Apache Spark,当我连接到myip:8080时,我总会看到类似"正在使用的内存:总共120.0 GB,使用1.0 GB和#34;。为什么只有更多的内存可用才能使用1Gb?是否有可能(或希望)增加实际使用的内存量?