标签: python installation pyspark
我发帖是为了帮助其他人解决同样的问题,因为我无法通过搜索来解决问题。
按照安装说明操作后出现此错误:
pyspark.sql.utils.IllegalArgumentException:“实例化'org.apac时出错 he.spark.sql.hive.HiveSessionStateBuilder':“
解决:问题是我的winutils.exe文件不在正确的文件夹中(它位于HADOOP_HOME根目录而不是bin子目录中)。
希望这有助于其他人!