spark conf文件不起作用

时间:2018-06-27 09:07:08

标签: apache-spark cloudera-cdh

我正在CDH上独立使用spark 1.6。要使用Phoenix,我必须在spark-defaults.conf中包括Phoenix的罐子的路径。我尝试在CDH管理器上执行此操作,但失败了:

我如下使用CDH管理器: enter image description here

spark-defaults.conf确实已更新(请参阅最后两行): enter image description here

但是,它仍然找不到Phoenix的罐子: enter image description here

实际上,如果我在命令行中包含jars作为参数,则可以使用,但是我更喜欢将其设置为默认值: enter image description here

我也尝试用spark-defaults.conf中的空格替换“ =”,但是也失败了。我能做些什么来解决它?

0 个答案:

没有答案