我在Windows机器上安装了Scala,Spark,SBT和winutils。还适当地配置了JAVA_HOME,SPARK_HOME,SCALA_HOME,SBT_HOME。尽管如此,当我尝试运行'spark-shell'时,我遇到了一个非常普遍的问题,我看到很多人都遇到过这个问题。 我试过通过winutils和windows explorer访问c:/ tmp / hive目录。然而同样的问题。如果有人能告诉我还有什么可能遗失,我将不胜感激? 版本: Spark:2.1.1 斯卡拉:2.11 以下是屏幕截图的链接: https://filedropper.com/filemanager/public.php?service=files&t=b5cc12549b9ae19ff969c65cb952c135
https://filedropper.com/filemanager/public.php?service=files&t=cb5b9b8f14980963be6f0a6511f71455
https://filedropper.com/filemanager/public.php?service=files&t=a2d471abfe57ca020a700c226b906faf
感谢您的帮助! 谢谢, 和Manish
答案 0 :(得分:0)
谢谢cricket_007和Jacek。感谢您的评论。 结果证明版本与winutils的兼容性问题。必须尝试多个版本,直到正确的版本更改了/ tmp / hive
的权限