链接到pyspark时在Pycharm中出错:未定义名称“ spark”

时间:2019-10-30 17:32:15

标签: pyspark pycharm

当我在cmd中运行示例代码时,一切正常。

>>> import pyspark
>>> l = [('Alice', 1)]
>>> spark.createDataFrame(l).collect()
[Row(_1='Alice', _2=1)]

但是当我在pycharm中执行代码时,会出现错误。

spark.createDataFrame(l).collect()
NameError: name 'spark' is not defined

当我将Pycharm链接到pyspark时可能出了些问题。

Environment Variable

Project Structure

Project Interpreter

1 个答案:

答案 0 :(得分:0)

从命令行启动pyspark时,将有一个sparkSession对象和一个sparkContext可供您分别用作sparksc

要在pycharm中使用它,应首先创建这些变量,以便可以使用它们。

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()
sc = spark.sparkContext

编辑:

请查看:Failed to locate the winutils binary in the hadoop binary path