我已尝试将SPARK_LOCAL_IP设置为" 127.0.0.1"并检查端口是否被占用。这是完整的错误文本:
exiftool
以上错误是在启动./bin/sparkR时。 Spark-shell将再次正常执行。
更多信息。启动时Spark-shell将自动搜索端口,直到它解决了没有绑定异常的端口。即使我将默认的SparkR后端端口设置为未使用的端口,它也会失败。
答案 0 :(得分:0)
我发现了这个问题。另一位用户删除了我的etc / hosts文件。我用localhost重新配置了文件,它似乎运行sparkR。我仍然很好奇spark-shell如何运行文件。