我正在尝试为apache-spark设置一个环境,并发现它与Java9不兼容。 (我很遗憾没有找到这个。)。我无法使Spark工作或java9卸载。
这些都没有产生任何结果。
如果我在终端中运行'java --version
',则输出结果为:
java 9.0.4
Java(TM) SE Runtime Environment (build 9.0.4+11)
Java HotSpot(TM) 64-Bit Server VM (build 9.0.4+11, mixed mode)
我现在的问题是卸载Java9,重新安装Java8和重新配置spark。
对此有任何线索/帮助吗?
答案 0 :(得分:0)
尝试使用这些命令。 去: /库/爪哇/ JavaVirtualMachines
删除jdk-9.0.4.jdk文件夹
这应该对你有用
答案 1 :(得分:-1)
Spark与Java 9不兼容,你需要使用Hadoop 3.0来使用Java 9,但我还没有看到过带有Hadoop 3.0的Spark。您最好的选择是使用已配置Spark的docker容器。我使用这个:https://github.com/jupyter/docker-stacks/tree/master/pyspark-notebook,在docker hub上还有更多。