名称spark未定义

时间:2017-09-12 14:42:04

标签: apache-spark pyspark

尝试遵循spark教程但收到以下错误 -

https://spark.apache.org/docs/latest/quick-start.html

" name' spark'未定义"

Using Python version 2.6.6 (r266:84292, Nov 22 2013 12:16:22)
SparkContext available as sc.
>>> import pyspark
>>> textFile = spark.read.text("README.md")
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
NameError: name 'spark' is not defined

这是我开始的方式 -

./bin/pyspark --master local[*]

1 个答案:

答案 0 :(得分:3)

如果您的spark版本是1.0.1,则不应使用2.2.0版本的教程。这些版本之间有重大变化。

在这个网站上,您可以找到Tutorial for 1.6.0

按照1.6.0教程,您必须使用textFile = sc.textFile("README.md")代替textFile = spark.read.text("README.md")