无法运行程序“ C:\ hadoop \ wins \ bin \ winutils.exe”:此版本的%1与您正在运行的Windows版本不兼容

时间:2019-05-19 05:47:21

标签: python pyspark pyspark-sql

使用Python版本3.7.3,SparkSession可作为“ spark”使用。

>>> orders = spark.read.table('retail_db.orders')

在使用spark时,spark.read.csv()工作正常,而在使用saveAsTextFile()编写相同内容时,也无法正常工作,并且出现如上所述的错误。

我正在使用窗口。

hadoop 2.7 火花2.4.2 Winutils 1.9.1

0 个答案:

没有答案