我想创建一个基本的SparkSession。但是我的IDEA警告我无法解析符号“ SparkSession”,并且我也找不到org.apache.spark.sql.SparkSession。 以下代码是我在http://spark.apache.org/docs/latest/sql-getting-started.html
中找到的我尝试了一些版本的依赖项,包括2.3.4、2.1.1、2.0.2、2.3.0,但这都是失败的。
import org.apache.spark.sql.SparkSession;
SparkSession spark = SparkSession()
.builder()
.appName("Java Spark SQL basic example")
.config("spark.some.config.option", "some-value")
.getOrCreate();
有我的pom.xml:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>2.4.3</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
</exclusions>
</dependency>
答案 0 :(得分:0)
因此,您只应添加Spark SQL的依赖项:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>2.4.3</version>
</dependency>