SparkR和Pyspark在启动时抛出Java.net.Bindexception,但Spark-Shell却没有?

时间:2016-06-13 18:42:34

标签: apache-spark pyspark sparkr

我已尝试将SPARK_LOCAL_IP设置为" 127.0.0.1"并检查端口是否被占用。这是完整的错误文本:

exiftool

以上错误是在启动./bin/sparkR时。 Spark-shell将再次正常执行。

更多信息。启动时Spark-shell将自动搜索端口,直到它解决了没有绑定异常的端口。即使我将默认的SparkR后端端口设置为未使用的端口,它也会失败。

1 个答案:

答案 0 :(得分:0)

我发现了这个问题。另一位用户删除了我的etc / hosts文件。我用localhost重新配置了文件,它似乎运行sparkR。我仍然很好奇spark-shell如何运行文件。