0

我有一个想要使用 es-spark从 elasticsearch 读取的 maven 项目,我pom.xml是这样的:

  <groupId>com.jzdata.logv</groupId>
  <artifactId>es-spark</artifactId>
  <version>0.0.1-SNAPSHOT</version>
  <packaging>jar</packaging>

  <name>es-spark</name>
  <url>http://maven.apache.org</url>

  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  </properties>

  <dependencies>
    <dependency>
        <groupId>org.elasticsearch</groupId>
        <artifactId>elasticsearch-spark_2.11</artifactId>
        <version>2.1.2</version>
    </dependency>
  </dependencies>

   <build>
    <plugins>
     <plugin>  
       <groupId>org.apache.maven.plugins</groupId>  
       <artifactId>maven-compiler-plugin</artifactId>
       <version>3.1</version>  
       <configuration>  
         <source>1.7</source>  
         <target>1.7</target>  
       </configuration>  
     </plugin>
     <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-jar-plugin</artifactId>
        <version>2.6</version>
        <configuration>
          <archive>
            <manifest>
              <addClasspath>true</addClasspath>
              <classpathPrefix>lib/</classpathPrefix>
              <mainClass>my.main.class</mainClass>
            </manifest>
           </archive>
        </configuration>
      </plugin>
      <plugin>
        <groupId>org.apache.maven.plugins</groupId>
        <artifactId>maven-dependency-plugin</artifactId>
        <version>2.10</version>
        <executions>
          <execution>
            <id>copy-dependencies</id>
            <phase>package</phase>
            <goals>
              <goal>copy-dependencies</goal>
            </goals>
            <configuration>
              <outputDirectory>${project.build.directory}/lib</outputDirectory>
            </configuration>
          </execution>
        </executions>
      </plugin>
    </plugins>  
  </build>  

我的依赖是根据elasticsearch-spark install

我想JAR用依赖 jar 文件打包一个可运行的文件。

在我运行 cmd的地方mvn package,它显示没有找到org.apache.sparkorg.apache.spark.api.java但是这些包在我的 Maven 依赖项中。

我的错误步骤在哪里?

4

1 回答 1

0

该库旨在用于 Spark 应用程序,它假定 Spark 依赖项在加载时将可用。

*同样,您希望在您的应用程序运行时可以使用 Spark 依赖项:RDDs/DataFrames/SparkContext 都是 Spark 的一部分。(*见下面我的评论)

问题是您没有向编译器表明这一点,它认为您正在使用在执行期间不可用的库。这样想——构建失败是因为编译器认为你的应用程序不能工作。

要解决此问题,您必须告诉编译器您希望 Spark 库在执行期间可用:

<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>1.6.0</version> <scope>provided</scope> </dependency>

*重要* 您需要从您的工件中排除 Spark 库,否则您的类路径中可能会出现多个版本的 Spark(无论如何,它们没有理由包含它们,Spark 正在加载您的应用程序!)。将范围设置为提供会告诉编译器您期望 Spark 可用,并且应该将其从输出中排除。

https://maven.apache.org/guides/introduction/introduction-to-dependency-mechanism.html#Dependency_Scope

于 2016-02-21T09:53:19.463 回答