Mac上的Spark for Kubernetes测试

时间:2018-09-21 22:04:13

标签: apache-spark kubernetes

尝试从提供的下载中构建映像。使用“源代码”软件包选项下载,而不是Hadoop版本。遵循spark.apache.org/docs/2.3.0/running-on-kubernetes.html#docker-images第一步来构建docker映像。在Mac上运行带有K8的Docker CE。

使用终端:在spark文件夹中运行:

./bin/docker-image-tool.sh -r cloud.docker.com/xxxx/spark build

所有运行到这里:

  

第5/14步:复制$ {spark_jars} / opt / spark / jars   复制失败:stat /var/lib/docker/tmp/docker-builder840552377/assembly/target/scala-2.12/jars:没有这样的文件或目录

请协助新手!不确定此文件夹结构在哪里或最新情况。
请不要以为我做错了什么...。在运行此程序之前,我可能会错过明显的安装。笑了之后,我们将不胜感激。 :-)

谢谢

1 个答案:

答案 0 :(得分:0)

确保您已克隆正确的spark项目,然后使用此命令构建spark

./build/mvn -Pkubernetes -DskipTests clean package

如果仅需要解决当前错误,请使用此命令(-pl用于构建指定的模块,其中spark-assembly_2.11是assembly / pom.xml文件中定义的artifactId。)

build/mvn -pl :spark-assembly_2.11 clean install

scala jar将在Assembly模块文件夹中可用。