标签: apache-spark cloudera-cdh
我正在CDH上独立使用spark 1.6。要使用Phoenix,我必须在spark-defaults.conf中包括Phoenix的罐子的路径。我尝试在CDH管理器上执行此操作,但失败了:
我如下使用CDH管理器:
spark-defaults.conf确实已更新(请参阅最后两行):
但是,它仍然找不到Phoenix的罐子:
实际上,如果我在命令行中包含jars作为参数,则可以使用,但是我更喜欢将其设置为默认值:
我也尝试用spark-defaults.conf中的空格替换“ =”,但是也失败了。我能做些什么来解决它?