在终端的Spark scala中添加外部库

时间:2016-08-24 10:52:44

标签: scala hadoop apache-spark cloudera-cdh

我正在尝试为spark添加外部库,因为我尝试将库放在/usr/lib/spark/lib中。在我成功添加库之后 运行我的代码我得到错误:找不到。 我不知道在哪里放置jar文件,我使用的是CDH 5.7.0

1 个答案:

答案 0 :(得分:1)

我在挖了一点后找到了解决方案,我通过在从终端打开火花壳的同时添加jar来解决这个问题。

我使用下面的代码:

spark-shell --jars "dddd-xxx-2.2.jar,xxx-examples-2.2.jar"