我有一个maven项目想要使用es-spark到read from elasticsearch,我的pom.xml
就像:
<groupId>com.jzdata.logv</groupId>
<artifactId>es-spark</artifactId>
<version>0.0.1-SNAPSHOT</version>
<packaging>jar</packaging>
<name>es-spark</name>
<url>http://maven.apache.org</url>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<dependencies>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark_2.11</artifactId>
<version>2.1.2</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.1</version>
<configuration>
<source>1.7</source>
<target>1.7</target>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<version>2.6</version>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<classpathPrefix>lib/</classpathPrefix>
<mainClass>my.main.class</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-dependency-plugin</artifactId>
<version>2.10</version>
<executions>
<execution>
<id>copy-dependencies</id>
<phase>package</phase>
<goals>
<goal>copy-dependencies</goal>
</goals>
<configuration>
<outputDirectory>${project.build.directory}/lib</outputDirectory>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
我的依赖是根据elasticsearch-spark install。
我想用可依赖jar文件打包一个可运行的JAR
文件。
我运行cmd mvn package
,它显示找不到包org.apache.spark
,org.apache.spark.api.java
,但这些包是我的maven依赖项。
我的错误步骤在哪里?
答案 0 :(得分:0)
该库旨在用于Spark应用程序,它假定Spark依赖项在加载时都可用。
*同样,您希望在运行应用程序时可以使用Spark依赖项:RDDs / DataFrames / SparkContext都是Spark的一部分。 (*见下面的评论)
问题是你还没有向编译器表明这一点,它认为你正在使用在执行期间不可用的库。可以这样想 - 构建失败,因为编译器认为你的应用程序不起作用。
要解决此问题,您必须告诉编译器您希望在执行期间使用Spark库:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>1.6.0</version>
<scope>provided</scope>
</dependency>
* 重要 * 您需要从工件中排除Spark库,否则您最终可能会你的类路径中有多个版本的Spark(无论如何它们都没有理由包含它们,Spark正在加载你的应用程序!)。将范围设置为提供告诉编译器您希望Spark可用,并且应该从输出中排除它。