尝试从提供的下载中构建映像。使用“源代码”软件包选项下载,而不是Hadoop版本。遵循spark.apache.org/docs/2.3.0/running-on-kubernetes.html#docker-images第一步来构建docker映像。在Mac上运行带有K8的Docker CE。
使用终端:在spark文件夹中运行:
./bin/docker-image-tool.sh -r cloud.docker.com/xxxx/spark build
所有运行到这里:
第5/14步:复制$ {spark_jars} / opt / spark / jars 复制失败:stat /var/lib/docker/tmp/docker-builder840552377/assembly/target/scala-2.12/jars:没有这样的文件或目录
请协助新手!不确定此文件夹结构在哪里或最新情况。
请不要以为我做错了什么...。在运行此程序之前,我可能会错过明显的安装。笑了之后,我们将不胜感激。 :-)
谢谢
答案 0 :(得分:0)
确保您已克隆正确的spark项目,然后使用此命令构建spark
./build/mvn -Pkubernetes -DskipTests clean package
如果仅需要解决当前错误,请使用此命令(-pl用于构建指定的模块,其中spark-assembly_2.11是assembly / pom.xml文件中定义的artifactId。)
build/mvn -pl :spark-assembly_2.11 clean install
scala jar将在Assembly模块文件夹中可用。