pyspark ml库在导入时给出错误

时间:2019-06-28 08:17:59

标签: numpy pyspark apache-spark-ml

我正在尝试导入pyspark ml LinearRegression。这给了我错误。我已经成功导入了pyspark.sql SparkSession

import findspark
findspark.init('/home/mymachine/spark-2.4.3-bin-hadoop2.7')
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('lrex').getOrCreate()
from pyspark.ml.regression import LinearRegression # giving  error

错误消息是:

  
     

ModuleNotFoundError跟踪(最近一次调用)   最后)   ---->从pyspark.ml.regression中的1导入LinearRegression

     在

〜/ spark-2.4.3-bin-hadoop2.7 / python / pyspark / ml / init .py中        20条机器学习管道。        21“”“   --->从pyspark.ml.base中导入22 Estimator,Model,Transformer,UnaryTransformer        从pyspark.ml.pipeline导入23 Pipeline,PipelineModel        从pyspark.ml导入24,分类,聚类,评估,功能,fpm,\

     

〜/ spark-2.4.3-bin-hadoop2.7 / python / pyspark / ml / base.py在        22        自pyspark import起23   ---> 24从pyspark.ml.param.shared导入*        从pyspark.ml.com.monmon导入25        从pyspark.sql.functions中导入26 udf

     

〜/ spark-2.4.3-bin-hadoop2.7 / python / pyspark / ml / param / init .py in           24从abc导入ABCMeta        25份进口副本   ---> 26将numpy导入为np        27        28从py4j.java_gateway导入JavaObject

     

ModuleNotFoundError:没有名为“ numpy”的模块

如何导入pyspark ml线性回归?如何清除此错误?

0 个答案:

没有答案