标签: apache-spark pyspark
我是新来的火花和尝试pyspark和spark-shell 在这两种情况下我都收到此错误 pyspark出现以下错误
错误存储.DiskBlockManager:无法在/ tmp中创建本地目录。忽略此目录。 java.io.IOException:10次尝试后无法创建临时目录(在/ tmp下)!
任何人都可以帮助我。