我现在很茫然。我正在尝试使用Spark 2.4 + Livy Server 0.5.0在Apache HUE 4.3上运行PySpark / SparkR。我遵循了我能找到的所有指南,但是我一直遇到这个问题。基本上,我可以通过命令行运行PySpark / SparkR,但是由于某种原因,HUE会执行以下操作:
spark-defaults.conf
,livy.conf
和livy-client.conf
)设置的所有Spark配置(执行程序内存,内核等)print(1+1)
)时,我也会得到InterpreterError: Fail to start interpreter
我可以提供任何需要的配置。这真让我发疯。
我也无法通过REST API与PySpark进行交互,相同的InterpreterError。这使我相信它比HUE更基于Livy Server。
答案 0 :(得分:0)
弄清楚了。我试图在cluster
模式下在YARN上运行Spark,然后切换到client
并进行了修复。在群集计算机上必须缺少参考/文件。