mvn包elasticsearch-spark错误

时间:2016-01-28 07:55:10

标签: maven elasticsearch apache-spark elasticsearch-hadoop

我有一个maven项目想要使用es-spark到read from elasticsearch,我的pom.xml就像:

  <groupId>com.jzdata.logv</groupId>
  <artifactId>es-spark</artifactId>
  <version>0.0.1-SNAPSHOT</version>
  <packaging>jar</packaging>

  <name>es-spark</name>
  <url>http://maven.apache.org</url>

  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  </properties>

  <dependencies>
    <dependency>
        <groupId>org.elasticsearch</groupId>
        <artifactId>elasticsearch-spark_2.11</artifactId>
        <version>2.1.2</version>
    </dependency>
  </dependencies>

   <build>
    <plugins>
     <plugin>  
       <groupId>org.apache.maven.plugins</groupId>  
       <artifactId>maven-compiler-plugin</artifactId>
       <version>3.1</version>  
       <configuration>  
         <source>1.7</source>  
         <target>1.7</target>  
       </configuration>  
     </plugin>
     <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-jar-plugin</artifactId>
        <version>2.6</version>
        <configuration>
          <archive>
            <manifest>
              <addClasspath>true</addClasspath>
              <classpathPrefix>lib/</classpathPrefix>
              <mainClass>my.main.class</mainClass>
            </manifest>
           </archive>
        </configuration>
      </plugin>
      <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-dependency-plugin</artifactId>
        <version>2.10</version>
        <executions>
          <execution>
            <id>copy-dependencies</id>
            <phase>package</phase>
            <goals>
              <goal>copy-dependencies</goal>
            </goals>
            <configuration>
              <outputDirectory>${project.build.directory}/lib</outputDirectory>
            </configuration>
          </execution>
        </executions>
      </plugin>
    </plugins>  
  </build>  

我的依赖是根据elasticsearch-spark install

我想用可依赖jar文件打包一个可运行的JAR文件。

我运行cmd mvn package,它显示找不到org.apache.sparkorg.apache.spark.api.java,但这些包是我的maven依赖项。

我的错误步骤在哪里?

1 个答案:

答案 0 :(得分:0)

该库旨在用于Spark应用程序,它假定Spark依赖项在加载时都可用。

*同样,您希望在运行应用程序时可以使用Spark依赖项:RDDs / DataFrames / SparkContext都是Spark的一部分。 (*见下面的评论)

问题是你还没有向编译器表明这一点,它认为你正在使用在执行期间不可用的库。可以这样想 - 构建失败,因为编译器认为你的应用程序不起作用。

要解决此问题,您必须告诉编译器您希望在执行期间使用Spark库:

<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>1.6.0</version> <scope>provided</scope> </dependency>

* 重要 * 您需要从工件中排除Spark库,否则您最终可能会你的类路径中有多个版本的Spark(无论如何它们都没有理由包含它们,Spark正在加载你的应用程序!)。将范围设置为提供告诉编译器您希望Spark可用,并且应该从输出中排除它。

https://maven.apache.org/guides/introduction/introduction-to-dependency-mechanism.html#Dependency_Scope