我按照说明在Amazon AWS上安装了PySpark: https://medium.com/@josemarcialportilla/getting-spark-python-and-jupyter-notebook-running-on-amazon-ec2-dec599e1c297
这很好:
Import pyspark as SparkContext
这会导致错误:
sc = SparkContext()
TypeError Traceback (most recent call last)
<ipython-input-3-2dfc28fca47d> in <module>
----> 1 sc = SparkContext()
TypeError: 'module' object is not callable
答案 0 :(得分:0)
您可以执行此操作-
from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()
Spark 2.0具有SparkSession作为单个入口点。您无需分别将SparkConf,SparkContext或SQLContext封装在SparkSession中。
有关更多详细信息,请参阅pyspark.sql.SparkSession文档。
答案 1 :(得分:0)
pyspark
是一个模块。您从SparkContext
导入pyspark
。
from pyspark import SparkContext