pyspark给出以下错误无法在/ tmp

时间:2018-05-30 08:59:59

标签: apache-spark pyspark

我是新来的火花和尝试pyspark和spark-shell 在这两种情况下我都收到此错误 pyspark出现以下错误

  
    

错误存储.DiskBlockManager:无法在/ tmp中创建本地目录。忽略此目录。 java.io.IOException:10次尝试后无法创建临时目录(在/ tmp下)!

  

任何人都可以帮助我。

0 个答案:

没有答案