无法解析方法的SparkSession(),我使用的依赖版本为2.4.3

时间:2019-07-17 13:18:28

标签: java apache-spark

我想创建一个基本的SparkSession。但是我的IDEA警告我无法解析符号“ SparkSession”,并且我也找不到org.apache.spark.sql.SparkSession。 以下代码是我在http://spark.apache.org/docs/latest/sql-getting-started.html

中找到的

我尝试了一些版本的依赖项,包括2.3.4、2.1.1、2.0.2、2.3.0,但这都是失败的。

import org.apache.spark.sql.SparkSession;
SparkSession spark = SparkSession()
            .builder()
            .appName("Java Spark SQL basic example")
            .config("spark.some.config.option", "some-value")
            .getOrCreate();

有我的pom.xml:

<dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.12</artifactId>
        <version>2.4.3</version>
        <exclusions>
            <exclusion>
                <groupId>org.slf4j</groupId>
                <artifactId>slf4j-log4j12</artifactId>
            </exclusion>
        </exclusions>
    </dependency>

1 个答案:

答案 0 :(得分:0)

因此,您只应添加Spark SQL的依赖项:

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.12</artifactId>
    <version>2.4.3</version>
</dependency>